在世界机器人大会上,阿里达摩院宣布开源三项自研核心技术:VLA模型RynnVLA-001-7B、世界理解模型RynnEC以及机器人上下文协议RynnRCP。这一举措旨在推动数据、模型与机器人本体的兼容适配,打通具身智能开发的完整流程。
具身智能领域正经历快速发展,但仍面临开发流程碎片化、数据模型与机器人本体适配困难等关键挑战。达摩院将MCP(模型上下文协议)理念引入具身智能领域,
达摩院打造的RynnRCP是一套完整的机器人服务协议和框架,能够实现从传感器数据采集、模型推理到机器人动作执行的完整工作流程打通,帮助用户根据具体应用场景轻松完成适配工作。RynnRCP目前已支持Pi0、GR00TN1.5等多款热门模型,以及SO-100、SO-101等多种机械臂,支持范围正在持续扩展。
RynnRCP架构解析:构建标准化连接桥梁
RynnRCP包含两个核心模块:RCP框架和RobotMotion。RCP框架负责建立机器人本体与传感器的连接,提供标准化能力接口,实现不同传输层和模型服务之间的兼容性。RobotMotion则充当具身大模型与机器人本体控制之间的桥梁,能够将离散的低频推理命令实时转换为高频连续控制信号,确保机器人运动的平滑性和物理约束符合性。
RobotMotion还提供了一体化仿真-真机控制工具,为开发者提供便捷的上手体验,支持任务规控、仿真同步、数据采集与回放、轨迹可视化等功能,有效降低策略迁移的技术门槛。
两大开源模型:从视觉理解到世界感知
达摩院同时宣布开源两款具身智能大模型。RynnVLA-001是达摩院自主研发的基于视频生成和人体轨迹预训练的视觉-语言-动作模型。该模型的突出特点是能够从
世界理解模型RynnEC将多模态大语言模型引入具身世界,为大模型赋予了理解物理世界的能力。该模型能够从位置、功能、数量等11个维度全面解析场景中的物体,在复杂室内环境中实现精准的目标物体定位和分割。该模型的创新之处在于无需依赖3D模型,仅通过视频序列就能建立连续的空间感知能力,同时支持灵活的交互操作。
产业生态布局:构建开放协作平台
据了解,达摩院正在具身智能领域进行积极投入,重点聚焦系统和模型研发,与多方合作共建产业基础设施。合作范围涵盖硬件本体和标准组件适配、数据采集,以及DAMO开发者矩阵等技术社区建设,目标是拓展机器人产业空间,加速实际场景的商业化落地。
值得注意的是,达摩院在上月还开源了WorldVLA模型,
开源链接:
机器人上下文协议RynnRCP
https://github.com/alibaba-damo-academy/RynnRCP
视觉-语言-动作模型RynnVLA-001
https://github.com/alibaba-damo-academy/RynnVLA-001
世界理解模型RynnEC
https://github.com/alibaba-damo-academy/RynnEC