DeepMind发布Genie 3:720p实时生成交互式3D世界,AGI训练迈出关键一步

🎯 情报来源:AI News & Artificial Intelligence | TechCrunch

Google DeepMind近日公布其第三代基础世界模型Genie 3,该模型可生成实时交互式3D环境,被视为实现通用人工智能(AGI)的关键基石。据技术演示,Genie 3能以720p分辨率、24fps速率持续生成数分钟的物理一致性虚拟世界,较前代Genie 2的10-20秒时长实现数量级突破。

研究总监Shlomi Fruchter强调,这是首个”非特定环境的通用世界模型”,整合了前代环境生成能力与视频模型Veo 3的物理理解特性。其核心突破在于通过自回归架构实现长期记忆,使虚拟世界中的物体运动、互动保持物理合理性,并支持通过提示词实时改变生成内容。

💡 核心要点

  • 生成能力:720p/24fps实时渲染,单次生成时长突破数分钟(Genie 2仅10-20秒)
  • 技术架构:自回归模型实现帧间记忆,无需硬编码物理引擎
  • 应用测试:与通用智能体SIMA协同测试,成功完成仓库场景目标指令
  • 物理模拟:展示滑雪等复杂场景,但雪粒运动模拟仍存在缺陷
  • 训练局限:当前仅支持短时交互(分钟级),AGI训练需小时级持续时间

📌 情报分析

技术价值:极高
模型突破环境生成的时空限制,其记忆机制实现了传统游戏引擎难以达成的动态物理一致性(如坠落物体的持续轨迹预测)。

商业价值:高
即时生成特性已证实适用于教育模拟、游戏原型开发,但需解决多智能体交互瓶颈才能释放AGI训练的商业潜力。

趋势预测:高
DeepMind团队暗示该技术可能复现”AlphaGo时刻”,但当前demo显示物理模拟精度仍需1-2代迭代才能支撑复杂场景训练。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索