BigQuery ML重磅升级:支持Gemini嵌入模型及1.3万+开源模型,处理3800万行数据仅需2-3美元

🎯 情报来源:Cloud Blog

Google BigQuery ML近日宣布重大升级,新增支持Gemini文本嵌入模型及超过1.3万个开源模型,显著扩展了AI嵌入能力。Gemini模型在MTEB基准测试中持续保持第一,而开源选项如multilingual-e5-small模型可在单副本配置下,以约2小时处理3800万行Hacker News数据,成本仅2-3美元。

此次升级使用户能通过简单SQL命令直接在数据存储位置生成嵌入,支持从顶级性能到高性价比的完整选择光谱。特别值得注意的是,Gemini模型采用创新的TPM(每分钟令牌数)配额控制机制,高信誉项目默认可获得500万TPM配额,最高可设置2000万TPM。

💡 核心要点

  • 模型选择扩容:新增Gemini及13,000+开源文本嵌入模型,包括性能冠军Gemini-embedding-001和轻量级multilingual-e5-small
  • 成本效益突破:处理3800万行数据的批量作业成本低至2-3美元,10副本配置可实现10倍速度提升
  • 性能标杆:Gemini模型在MTEB文本嵌入基准测试中持续保持第一名
  • 配额管理:Gemini采用TPM配额系统,默认提供500万TPM,最高可配置2000万TPM
  • 处理规模:单作业可处理多达1200万行(每行300令牌)数据

📌 情报分析

技术价值:极高
Gemini模型MTEB榜首表现验证其技术领先性,支持500万TPM的默认配额展现强大的基础设施支撑。开源模型集成方案实现Colab脚本化部署/卸载,体现工程化成熟度。

商业价值:高
批量处理成本降至2-3美元/3800万行,比传统方案降低1-2个数量级。但需注意Vertex AI端点持续计费机制可能产生隐性成本。

趋势预测:高
将顶级专有模型与海量开源选项结合的混合模式可能成为云AI服务新标准。TPM配额制反映云计算资源分配向更细粒度化发展。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索