
8月11日消息 , 在世界机器人大会上 , 阿里达摩院宣布开源自研的 VLA 模型RynnVLA-001-7B、世界理解模型RynnEC、以及机器人上下文协议RynnRCP, 推动数据、模型和机器人的兼容适配 , 打通具身智能开发全流程 。
具身智能领域飞速发展 , 但仍面临开发流程碎片化 , 数据、模型与机器人本体适配难等重大挑战 。 达摩院将MCP(Model Context Protocol)理念引入具身智能 , 首次提出并开源了RCP(Robotics Context Protocol)协议以推动不同的数据、模型与本体之间的对接适配 。 达摩院打造了名为RynnRCP的一套完整的机器人服务协议和框架 , 能够打通从传感器数据采集、模型推理到机器人动作执行的完整工作流 , 帮助用户根据自身场景轻松适配 。 RynnRCP现已经支持Pi0、GR00T N1.5等多款热门模型以及SO-100、SO-101等多种机械臂 , 正持续拓展 。
具体而言 , RynnRCP包括RCP框架和RobotMotion两个主要模块 。 RCP框架旨在建立机器人本体与传感器的连接 , 提供标准化能力接口 , 并实现不同的传输层和模型服务之间的兼容 。 RobotMotion则是具身大模型与机器人本体控制之间的桥梁 , 能将离散的低频推理命令实时转换为高频的连续控制信号 , 实现平滑、符合物理约束的机器人运动 。 同时 , RobotMotion还提供了一体化仿真-真机控制工具 , 帮助开发者快速上手 , 支持任务规控、仿真同步、数据采集与回放、轨迹可视化等功能 , 降低策略迁移难度 。
大会上 , 达摩院还宣布开源两款具身智能大模型 。 RynnVLA-001是达摩院自主研发的基于视频生成和人体轨迹预训练的视觉-语言-动作模型 , 其特点是能够从第一人称视角的视频中学习人类的操作技能 , 隐式迁移到机器人手臂的操控上 , 从而让机械臂操控更加连贯、平滑 , 更接近于人类动作 。
世界理解模型RynnEC将多模态大语言模型引入具身世界 , 赋予了大模型理解物理世界的能力 。 该模型能够从位置、功能、数量等11个维度全面解析场景中的物体 , 并在复杂的室内环境中精准定位和分割目标物体 。 无需3D模型 , 该模型仅靠视频序列就能建立连续的空间感知 , 还支持灵活交互 。
据了解 , 达摩院正积极投入具身智能 , 聚焦于系统和模型研发 , 与多方共建产业基础设施 , 包括硬件本体和标准组件适配、数据采集 , 以及技术社区DAMO开发者矩阵等 , 希望拓展机器人的产业空间 , 加速场景落地 。 达摩院还在上月开源了WorldVLA模型首次将世界模型与动作模型融合 , 提升了图像与动作的理解与生成能力 , 受到业界关注 。
开源链接:
机器人上下文协议RynnRCP
https://github.com/alibaba-damo-academy/RynnRCP
视觉-语言-动作模型 RynnVLA-001
https://github.com/alibaba-damo-academy/RynnVLA-001
世界理解模型 RynnEC
【达摩院开源具身智能“三大件”,机器人上下文协议首次开源】https://github.com/alibaba-damo-academy/RynnEC
推荐阅读
- 开源框架教AI在MCP中玩转工具解决任务,实测效果超越GPT!
- 单机支持超万亿参数模型!浪潮信息发布超节点,给开源AI打造开放底座
- 法国科研中心发布医学文本AI识别系统:超越专有软件的开源突破
- 为中企用自家芯片铺平道路!华为对CANN全面开源背后 与英伟达CUDA竞争
- 欧洲“开源版Coze”火了,4个月估值暴涨6倍
- Deep Cogito发布四款开源混合推理大语言模型
- 投影放映系统与LED 电影屏如何选择?HDR:下一代影院竞争的焦点
- OpenAI开源2个推理模型:笔记本/手机就能跑,性能接近o4-mini
- 华为重要官宣:全面开源!与英伟达上演“龙虎斗”?
- 手机也能跑,腾讯混元一口气开源4款小模型
