🎯 情报来源:AI News & Artificial Intelligence | TechCrunch
Google DeepMind最新公布Genie 3基础世界模型,该模型能以24fps实时生成持续数分钟的交互式3D环境(720p分辨率),较前代Genie 2的10-20秒时长实现数量级突破。研究团队宣称这是首个”实时交互通用世界模型”,通过自回归架构记忆生成历史,实现物理规则一致性推演,被视为通向AGI的关键阶梯。
模型整合了前代环境生成器Genie 2和视频生成模型Veo 3的技术优势,支持”可提示世界事件”功能,用户可通过指令动态改变生成环境。值得注意的是,其物理一致性保持能力属于涌现特性,并非人为编程实现,能模拟物体运动、坠落等物理交互的直觉认知。
💡 核心要点
- 生成时长:单次生成达数分钟(Genie 2仅10-20秒)
- 运行效率:720p分辨率下保持24fps实时生成
- 核心突破:自回归架构实现长期物理一致性记忆
- 训练价值:可创建无限多样化环境供智能体探索学习
- 当前局限:连续交互仅支持数分钟(训练需小时级)
📌 情报分析
技术价值:极高
首次实现实时长序列物理一致性模拟,自回归记忆架构突破传统物理引擎限制,涌现的物理直觉认知能力接近人类水平。
商业价值:高
即时应用于游戏原型设计(节约90%开发耗时)、虚拟培训(医疗/工业场景)等领域,但需突破分钟级时长限制才能释放全部价值。
趋势预测:极高
AGI训练赛道关键基础设施,据团队透露下一代将实现小时级持续交互,可能复现AlphaGo式的”Move 37时刻”突破。