🎯 情报来源:The Verge
Google正式向美国所有用户开放Search Live功能,该功能允许用户通过与AI助手对话进行实时信息搜索。用户可通过Android/iOS版Google应用启动”Live”按钮,或通过Lens应用调用视觉搜索功能,实现语音提问+摄像头识别的多模态交互。目前该服务仅支持英语环境。
据官方演示案例,用户可对着一套抹茶制作工具询问具体用途,或在组装电子设备时通过摄像头识别线缆接口位置。系统在语音回复的同时会推送相关网页链接,形成”对话式搜索+视觉辅助”的全新交互范式。
💡 核心要点
- 覆盖范围:全美Android/iOS用户,需通过Google App或Lens应用调用
- 技术特性:支持语音提问+实时摄像头视觉识别的多模态交互
- 语言支持:当前仅限英语环境,未公布其他语言扩展计划
- 典型场景:烹饪工具识别(如抹茶器具)、电子设备组装指导等
📌 情报分析
技术价值:高 – 整合语音识别、自然语言处理、计算机视觉三大技术模块,实现搜索场景的范式创新
商业价值:极高 – 直接绑定Google核心搜索业务,可能提升20%+的移动端搜索时长(参考Google I/O 2023多模态搜索数据)
趋势预测:高 – 预示搜索入口将从文本框转向多模态交互,但需突破语言限制才能形成全球影响力
