🎯 情报来源:AI
谷歌今日宣布在Android和iOS版Google应用中推出Search Live语音输入功能。该功能面向美国地区参与AI Mode实验的用户,允许用户通过自然流畅的语音对话与搜索引擎互动,并探索来自网络的多样化链接。
Search Live特别适用于移动场景或多任务处理情境。例如,在打包行李时,用户可以通过语音提问“如何防止亚麻连衣裙在行李箱中起皱?”并获得AI生成的语音回答,随后还能继续追问或查看屏幕上的相关链接深入了解。此外,该功能支持后台运行,用户可在其他应用中无缝继续对话。
核心要点:
- Search Live采用定制版Gemini模型,整合了Search的最佳信息质量系统。
- 引入query fan-out技术,展示更广泛、更多样化的网络内容。
- 未来数月内计划增加实时相机功能,支持用户通过语音和视觉交互描述实时场景。
📌 情报分析
技术价值:高
Search Live依托定制版Gemini模型和query fan-out技术,提升了语音交互的准确性和内容多样性。其后台运行能力和多模态交互潜力(如未来整合相机功能)进一步扩展了应用场景。
商业价值:高
该功能增强了用户在移动场景中的搜索体验,可能吸引更多用户使用Google应用,从而提升用户粘性与广告收入。同时,为开发者提供了潜在的新接口和商业模式。
趋势预测:
随着多模态AI技术的发展,未来6个月内,类似Search Live的语音+视觉交互模式可能成为主流,推动搜索引擎向更智能化、场景化方向发展。
