🎯 情报来源:Google DeepMind Blog
谷歌正式发布Gemini 2.5系列模型的多项更新,包括全面可用的Gemini 2.5 Pro和Flash,以及新推出的预览版Gemini 2.5 Flash-Lite。此次更新重点优化了性能、成本和延迟,为开发者提供了更灵活的选择。
Gemini 2.5 Flash-Lite是该系列中延迟最低、成本最低的模型,专为高吞吐量任务设计,如分类和大规模摘要生成。此外,Gemini 2.5 Flash的定价结构也进行了调整,输入token价格从$0.15/1M提升至$0.30/1M,输出token价格从$3.50/1M降至$2.50/1M,取消了“思考”与“非思考”的价格差异。
核心要点:
- Gemini 2.5 Flash-Lite推出,提供最低延迟和成本,适合对成本和速度敏感的任务。
- Gemini 2.5 Flash定价调整,输入token价格上涨至$0.30/1M,输出token价格下降至$2.50/1M。
- Gemini 2.5 Pro需求增长强劲,适用于高智能需求场景,如编码和代理任务。
- 现有预览版模型将在2025年逐步停用,建议用户迁移至稳定版本。
📌 情报分析
技术价值:极高
Gemini 2.5 Flash-Lite在延迟和成本上的优化显著提升了其适用性,特别是在高吞吐量任务中的表现优于前代模型。同时,动态控制“思考预算”功能为开发者提供了更大的灵活性。
商业价值:高
通过灵活定价策略和多款模型定位不同使用场景,谷歌进一步巩固了其在AI模型市场的竞争力。Flash-Lite的低成本选项尤其适合中小型企业。
趋势预测:
未来3-6个月内,Gemini 2.5系列可能推动更多企业采用AI模型进行规模化任务处理。随着Pro和Flash-Lite的普及,市场对高性能推理模型的需求将持续增长。