阿里达摩院开源具身智能三大核心组件:7B参数VLA模型、世界理解模型及机器人上下文协议

🎯 情报来源:量子位

在世界机器人大会上,阿里达摩院宣布开源自研的具身智能三大核心组件:7B参数的视觉-语言-动作模型RynnVLA-001、世界理解模型RynnEC,以及机器人上下文协议RynnRCP。此次开源旨在解决具身智能开发中数据、模型与机器人本体适配难的行业痛点,推动全流程开发标准化。

RynnRCP协议已支持Pi0、GR00T N1.5等多款主流模型及SO-100/101机械臂,其RobotMotion模块能将低频推理指令实时转换为高频控制信号(延迟<5ms)。RynnVLA-001通过第一人称视频学习人类操作技能,使机械臂动作连贯性提升40%;RynnEC则实现11维场景解析精度达92%,仅需视频输入即可建立空间感知。

💡 核心要点

  • 7B参数开源:VLA模型RynnVLA-001-7B支持视频到动作的隐式迁移
  • 92%场景解析:RynnEC在11维度物体理解中达到行业最高精度
  • 5ms延迟控制:RynnRCP协议实现推理到执行的全链路标准化
  • 40%流畅度提升:机械臂动作通过人体轨迹预训练逼近人类水平
  • 多硬件兼容:已适配Pi0/N1.5模型及SO系列机械臂等主流设备

📌 情报分析

技术价值:极高
RynnRCP首次实现从传感器到执行的标准化协议,其5ms级延迟控制技术突破碎片化开发现状。VLA模型与EC模型的组合使跨模态理解精度达92%,建立行业新基准。

商业价值:高
协议兼容Pi0/N1.5等主流硬件,可快速接入现有产线。达摩院开发者矩阵已形成生态雏形,但实际场景落地仍需验证硬件适配广度。

趋势预测:高
世界模型+VLA的技术路线可能成为具身智能新标准。结合上月开源的WorldVLA,阿里正构建从感知到执行的完整技术栈,或加速服务机器人商业化进程。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索