阿里達摩院開源三大具身智能核心模型與協議,推動機器人開發全流程標準化
8月11日,在2025世界機器人大會上,阿里達摩院宣布開源其自主研發的視覺-語言-動作(VLA)模型RynnVLA-001-7B、世界理解模型RynnEC,以及機器人上下文協議RynnRCP,旨在解決具身智能領域長期存在的開發碎片化、數據與硬件適配難等問題,為機器人開發者提供從感知到執行的完整技術棧支持。
具身智能的核心挑戰在于如何讓模型、數據與機器人本體高效協同。達摩院創新性提出RCP(Robotics Context Protocol)協議,通過標準化接口連接傳感器、模型和機械控制,實現全流程兼容適配。目前,RynnRCP已支持Pi0、GR00T N1.5等主流模型及SO-100、SO-101機械臂,并包含兩大核心模塊:RCP框架:統一機器人本體與傳感器的通信標準,支持多傳輸層和模型服務接入。RobotMotion:將低頻模型指令實時轉化為高頻控制信號,確保機械臂運動平滑且符合物理約束,同時提供仿真-真機一體化工具,降低開發門檻。
兩大開源模型:讓機器人“看得懂、動得巧”
1. RynnVLA-001-7B:基于視頻生成與人體軌跡預訓練的VLA模型,可從第一視角視頻中學習人類操作技能,并遷移至機械臂控制,使動作更連貫、擬人化。
2. RynnEC:多模態世界理解模型,通過11維場景解析(如位置、功能、數量)實現精準物體定位與分割,僅需視頻輸入即可構建空間感知,適用于復雜室內環境。
達摩院此前開源的WorldVLA模型(融合世界模型與動作模型)已展現顯著效果,抓取成功率提升4%,視頻生成質量優化,進一步驗證了技術路線的可行性。