🎯 情报来源:AI News & Artificial Intelligence | TechCrunch
亚马逊于本周二正式升级其视觉搜索功能Amazon Lens,推出实时AI购物工具Lens Live。该功能通过手机摄像头实时识别现实世界物品,在屏幕底部生成可滑动商品轮播,并与AI购物助手Rufus深度集成。技术底层采用Amazon SageMaker机器学习平台和AWS托管的OpenSearch服务,首批将面向”数千万”美国iOS用户开放。
区别于传统静态图片搜索,Lens Live新增三项核心能力:实时物体捕捉聚焦、一键加入购物车/心愿单功能,以及AI生成的商品摘要和智能提问建议。亚马逊表示,此举旨在满足消费者线下比价的行为习惯,目前暂未公布全球扩展计划。
💡 核心要点
- 技术架构:基于Amazon SageMaker机器学习平台和OpenSearch服务
- 首批规模:面向美国iOS用户”数千万”级别的初始覆盖
- 功能创新:实现实时视觉搜索+AI购物助手Rufus的双重集成
- 用户行为:针对线下场景的”查看实物→线上比价”消费路径优化
- 生态协同:年内已推出7项AI购物功能,形成工具矩阵
📌 情报分析
技术价值 | 评级:高
采用SageMaker实现模型快速部署,但实时视觉识别技术已非独占优势(谷歌/ Pinterest均有类似方案),核心突破在于与电商库存的精准匹配能力。
商业价值 | 评级:极高
直击30%消费者线下比价痛点(亚马逊官方数据),可能提升冲动购买转化率15-20%(参照Pinterest Lens数据)。AI助手联动可延长用户停留时间。
趋势预测 | 评级:高
6-12个月内可能扩展至安卓端及欧洲市场,未来或将整合AR试穿等沉浸式功能,形成OMO(Online-Merge-Offline)购物闭环。
