🎯 情报来源:Cloud Blog
Google BigQuery ML近日宣布重大升级,新增支持Gemini文本嵌入模型及超过1.3万个开源模型,显著扩展了AI嵌入能力。Gemini模型在MTEB基准测试中持续保持第一,而开源选项如multilingual-e5-small模型可在单副本配置下,以约2小时处理3800万行Hacker News数据,成本仅2-3美元。
此次升级使用户能通过简单SQL命令直接在数据存储位置生成嵌入,支持从顶级性能到高性价比的完整选择光谱。特别值得注意的是,Gemini模型采用创新的TPM(每分钟令牌数)配额控制机制,高信誉项目默认可获得500万TPM配额,最高可设置2000万TPM。
💡 核心要点
- 模型选择扩容:新增Gemini及13,000+开源文本嵌入模型,包括性能冠军Gemini-embedding-001和轻量级multilingual-e5-small
- 成本效益突破:处理3800万行数据的批量作业成本低至2-3美元,10副本配置可实现10倍速度提升
- 性能标杆:Gemini模型在MTEB文本嵌入基准测试中持续保持第一名
- 配额管理:Gemini采用TPM配额系统,默认提供500万TPM,最高可配置2000万TPM
- 处理规模:单作业可处理多达1200万行(每行300令牌)数据
📌 情报分析
技术价值:极高
Gemini模型MTEB榜首表现验证其技术领先性,支持500万TPM的默认配额展现强大的基础设施支撑。开源模型集成方案实现Colab脚本化部署/卸载,体现工程化成熟度。
商业价值:高
批量处理成本降至2-3美元/3800万行,比传统方案降低1-2个数量级。但需注意Vertex AI端点持续计费机制可能产生隐性成本。
趋势预测:高
将顶级专有模型与海量开源选项结合的混合模式可能成为云AI服务新标准。TPM配额制反映云计算资源分配向更细粒度化发展。