BigQuery性能大升级:Gemini模型处理能力提升100倍,单次作业可处理8000万行数据

🎯 情报来源:Cloud Blog

Google近日宣布对其BigQuery数据平台进行重大升级,重点提升生成式AI功能的性能表现。此次升级涉及三大核心领域:处理能力提升100倍的首方LLM模型、99.99%的行级成功率,以及简化的配额管理系统。其中Gemini-2.0-flash-001模型现可单次处理1020万行数据(每行500输入/50输出token)。

关键突破体现在ML.GENERATE_TEXT函数吞吐量实现超100倍提升,文本嵌入模型处理能力增长30倍(从270万行/6小时提升至8000万行)。通过Vertex AI的预配置吞吐量(PT)支持,用户现可处理超过5亿行的嵌入作业。

💡 核心要点

  • ML.GENERATE_TEXT吞吐量提升100倍,支持单作业处理数千万行数据
  • 文本嵌入模型处理能力达8000万行/6小时(提升30倍)
  • 可靠性达99.99%查询完成率与行级成功率
  • Gemini-2.0-flash-001模型单次处理1020万行数据
  • 支持Vertex AI预配置吞吐量,最高可处理5亿行嵌入作业

📌 情报分析

技术价值:极高
吞吐量百倍提升直接突破企业级AI应用瓶颈,Faraday案例显示其45分钟完成1267万次嵌入处理(约5000次/秒)。动态令牌批处理等技术创新实现量级突破。

商业价值:高
预配置吞吐量支持使大企业能稳定处理PB级数据,全球端点部署降低区域使用门槛。内部测试显示1500 QPM默认配额下即可实现规模化收益。

趋势预测:高
动态共享配额(DSQ)机制预示云AI服务将向弹性资源池方向发展。99.99%可靠性标准可能成为行业新基准,推动更多企业将核心业务系统接入生成式AI。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索