Google向全美开放Search Live功能:AI语音+视觉搜索实时对话

🎯 情报来源:The Verge

Google正式向美国所有用户开放Search Live功能,该功能允许用户通过与AI助手对话进行实时信息搜索。用户可通过Android/iOS版Google应用启动”Live”按钮,或通过Lens应用调用视觉搜索功能,实现语音提问+摄像头识别的多模态交互。目前该服务仅支持英语环境。

据官方演示案例,用户可对着一套抹茶制作工具询问具体用途,或在组装电子设备时通过摄像头识别线缆接口位置。系统在语音回复的同时会推送相关网页链接,形成”对话式搜索+视觉辅助”的全新交互范式。

💡 核心要点

  • 覆盖范围:全美Android/iOS用户,需通过Google App或Lens应用调用
  • 技术特性:支持语音提问+实时摄像头视觉识别的多模态交互
  • 语言支持:当前仅限英语环境,未公布其他语言扩展计划
  • 典型场景:烹饪工具识别(如抹茶器具)、电子设备组装指导等

📌 情报分析

技术价值:高 – 整合语音识别、自然语言处理、计算机视觉三大技术模块,实现搜索场景的范式创新

商业价值:极高 – 直接绑定Google核心搜索业务,可能提升20%+的移动端搜索时长(参考Google I/O 2023多模态搜索数据)

趋势预测:高 – 预示搜索入口将从文本框转向多模态交互,但需突破语言限制才能形成全球影响力

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索