資訊在沃

武漢光谷發布人形機器人動作大模型 零代碼實現機器人動作開發與多機通用

   發布時間:2026-05-10 08:16 作者:任飛揚

無需編寫代碼,僅憑文本、視頻或動作捕捉數據,就能快速生成并部署機器人動作——這一曾被視為科幻場景的技術,如今在武漢光谷成為現實。5月9日,湖北人形機器人創新中心聯合北京大學武漢人工智能研究院、北京虛擬動點科技,正式發布人形機器人動作大模型,并同步推出首款應用級產品“潛擎”創作平臺,標志著人形機器人從實驗室研發向產業化應用邁出關鍵一步。

該動作大模型由MotionMaster虛擬動作生成器與UniAct真機執行引擎兩大核心模塊構成,可接收高階語義、視頻、音頻等多模態輸入,并轉化為多品牌、多機型通用的機器人可執行指令。據北京大學武漢人工智能研究院具身智能中心研究員何子默介紹,模型具備兩大突破性能力:一是降低開發門檻,開發者無需編程基礎即可完成動作設計;二是實現動作指令的跨機型通用性,且通過數據反饋機制持續優化性能。目前,模型的動作成功率、泛化能力與執行效率均達到行業領先水平,并已面向全行業開源共享。

針對人形機器人領域長期存在的“輸入方式單一、動作編排困難、開發者門檻高”等痛點,“潛擎”創作平臺提供了系統性解決方案。潛空間具身智能(武漢)科技有限公司CEO陳睿指出,當前市場上300余款人形機器人產品中,僅少數能實現高動態運動,主要原因在于傳統開發模式依賴專業編程且兼容性差?!皾撉妗逼脚_通過整合動作大模型技術,支持用戶以文本描述、視頻示范或動作捕捉數據直接生成機器人動作,實現“一次創作、多機通用、全場景適配”,大幅縮短開發周期并降低成本。

作為湖北具身智能產業的核心公共平臺,湖北人形機器人創新中心為本次技術突破提供了全鏈條支撐。該中心運營負責人黃全周表示,中心不僅構建了覆蓋數據采集、場地測試、真機驗證到場景落地的完整研發環境,還通過聯動產學研資源推動技術快速轉化。例如,在模型訓練階段,中心聯合高校與企業提供海量動作數據;在應用推廣階段,協助對接工業制造、物流倉儲等潛在場景,加速技術從實驗室到市場的落地。

發布會上,多項產業生態合作同步落地。潛空間科技與光谷東智、格藍若、宇樹科技、樂聚機器人等企業簽署合作協議,圍繞數據服務、模型訓練、場景落地等展開協同;湖北人形機器人創新中心則與虛擬動點、飛闊科技、青瞳視覺等機構達成戰略合作,共同完善產業生態鏈。這些合作標志著湖北在具身智能領域已形成“技術研發-場景驗證-商業應用”的閉環體系,為打造全國領先的人形機器人產業高地奠定基礎。

 
 
更多>同類內容
全站最新
熱門內容