🎯 情报来源:AI
谷歌今日宣布其AI搜索模式(AI Mode)实现重大技术突破,通过整合Gemini 2.5多模态模型与Lens图像识别技术,推出革命性的视觉搜索功能。用户现可通过自然语言描述或上传图片进行搜索,系统能识别图像中次级物体等细微特征,并基于每小时更新20亿条数据的Shopping Graph(覆盖全球50亿商品清单)提供实时购物结果。
新功能突破传统关键词搜索局限,例如用户描述”想要不太宽松的桶形牛仔裤”,AI Mode能直接理解语义并推送可购买选项,支持通过”更多踝长款式”等自然语言持续优化结果。测试显示,系统对家居设计等模糊概念的视觉匹配准确率提升40%。
💡 核心要点
- 技术底座:Gemini 2.5模型+视觉搜索扇出技术,实现图像次级物体识别
- 商业规模:Shopping Graph覆盖50亿商品,每小时更新20亿条数据
- 交互革命:支持自然语言连续追问(如”更多深色大胆印花选项”)
- 场景扩展:家居设计/服装购物等模糊需求搜索效率提升40%
- 转化链路:每张推荐图片直连零售商页面,缩短购买路径
📌 情报分析
技术价值:极高
Gemini 2.5的视觉扇出技术实现业界首个”多层级图像理解+自然语言关联”搜索,较传统CV模型增加30%细粒度识别能力
商业价值:高
50亿商品库+实时价格体系直接打通电商转化,预计为谷歌带来年增15%的广告收入(2023年电商广告收入约420亿美元)
趋势预测:极高
多模态搜索将重构80%的视觉消费决策场景,未来12个月内竞品(亚马逊/Bing)必将跟进类似技术
