欧美三级不卡/成人97视频/四虎成人精品永久免费av九九 /国产一区二区精品91 - 成人三级在线播放

阿里達摩院開源三大具身智能核心模型與協議,推動機器人開發全流程標準化

2025-08-11 17:23:40   |   棠糖   |   1751

8月11日,在2025世界機器人大會上,阿里達摩院宣布開源其自主研發的視覺-語言-動作(VLA)模型RynnVLA-001-7B、世界理解模型RynnEC,以及機器人上下文協議RynnRCP,旨在解決具身智能領域長期存在的開發碎片化、數據與硬件適配難等問題,為機器人開發者提供從感知到執行的完整技術棧支持。  

具身智能的核心挑戰在于如何讓模型、數據與機器人本體高效協同。達摩院創新性提出RCP(Robotics Context Protocol)協議,通過標準化接口連接傳感器、模型和機械控制,實現全流程兼容適配。目前,RynnRCP已支持Pi0、GR00T N1.5等主流模型及SO-100、SO-101機械臂,并包含兩大核心模塊:RCP框架:統一機器人本體與傳感器的通信標準,支持多傳輸層和模型服務接入。RobotMotion:將低頻模型指令實時轉化為高頻控制信號,確保機械臂運動平滑且符合物理約束,同時提供仿真-真機一體化工具,降低開發門檻。  

 兩大開源模型:讓機器人“看得懂、動得巧”  

1. RynnVLA-001-7B:基于視頻生成與人體軌跡預訓練的VLA模型,可從第一視角視頻中學習人類操作技能,并遷移至機械臂控制,使動作更連貫、擬人化。  

2. RynnEC:多模態世界理解模型,通過11維場景解析(如位置、功能、數量)實現精準物體定位與分割,僅需視頻輸入即可構建空間感知,適用于復雜室內環境。  

達摩院此前開源的WorldVLA模型(融合世界模型與動作模型)已展現顯著效果,抓取成功率提升4%,視頻生成質量優化,進一步驗證了技術路線的可行性。

特別提醒:本網信息來自于互聯網,目的在于傳遞更多信息,并不代表本網贊同其觀點。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字、圖片等內容的真實性、完整性、及時性本站不作任何保證或承諾,請自行核實相關內容。本站不承擔此類作品侵權行為的直接責任及連帶責任。如若本網有任何內容侵犯您的權益,請及時發送相關信息至bireading@163.com,本站將會在48小時內處理完畢。

阿里達摩院開源三大具身智能核心模型與協議,推動機器人開發全流程標準化

2025-08-11 17:23:40 瀏覽量: 1751 作者: 棠糖

8月11日,在2025世界機器人大會上,阿里達摩院宣布開源其自主研發的視覺-語言-動作(VLA)模型RynnVLA-001-7B、世界理解模型RynnEC,以及機器人上下文協議RynnRCP,旨在解決具身智能領域長期存在的開發碎片化、數據與硬件適配難等問題,為機器人開發者提供從感知到執行的完整技術棧支持。  

具身智能的核心挑戰在于如何讓模型、數據與機器人本體高效協同。達摩院創新性提出RCP(Robotics Context Protocol)協議,通過標準化接口連接傳感器、模型和機械控制,實現全流程兼容適配。目前,RynnRCP已支持Pi0、GR00T N1.5等主流模型及SO-100、SO-101機械臂,并包含兩大核心模塊:RCP框架:統一機器人本體與傳感器的通信標準,支持多傳輸層和模型服務接入。RobotMotion:將低頻模型指令實時轉化為高頻控制信號,確保機械臂運動平滑且符合物理約束,同時提供仿真-真機一體化工具,降低開發門檻。  

 兩大開源模型:讓機器人“看得懂、動得巧”  

1. RynnVLA-001-7B:基于視頻生成與人體軌跡預訓練的VLA模型,可從第一視角視頻中學習人類操作技能,并遷移至機械臂控制,使動作更連貫、擬人化。  

2. RynnEC:多模態世界理解模型,通過11維場景解析(如位置、功能、數量)實現精準物體定位與分割,僅需視頻輸入即可構建空間感知,適用于復雜室內環境。  

達摩院此前開源的WorldVLA模型(融合世界模型與動作模型)已展現顯著效果,抓取成功率提升4%,視頻生成質量優化,進一步驗證了技術路線的可行性。

,

Copyright ©2018 鉍讀網 All Rights Reserved.

京ICP備18051707號

京公網安備 11011302001633號