資訊在沃

武漢光谷新突破:人形機器人動作大模型發布 零代碼開啟智能開發新篇

   發布時間:2026-05-10 08:30 作者:蘇婉清

無需編寫代碼,僅通過文本、視頻或動捕數據即可生成并部署機器人動作——這一曾被視為科幻場景的技術,如今在武漢光谷成為現實。5月9日,湖北人形機器人創新中心聯合北京大學武漢人工智能研究院、北京虛擬動點科技,在光谷正式發布人形機器人動作大模型,并同步推出首個應用級產品“潛擎”創作平臺,標志著人形機器人從實驗室走向產業應用邁出關鍵一步。

“人形機器人正從‘炫技’階段轉向‘實用’階段,但要讓機器人在真實場景中高效作業,仍需突破動作智能的瓶頸?!焙比诵螜C器人創新中心運營負責人黃全周指出,當前行業面臨三大挑戰:動作開發門檻高、跨機型兼容性差、場景適應能力弱。此次發布的動作大模型,正是針對這些痛點設計的解決方案。該模型由MotionMaster虛擬動作生成器與UniAct真機執行引擎構成,支持高階語義、視頻、音頻等多模態輸入,可一鍵生成適用于多品牌、多機型機器人的標準化動作指令,其成功率、泛化能力和執行效率均達到行業領先水平,且已面向全行業開源共享。

北京大學武漢人工智能研究院具身智能中心研究員何子默進一步解釋:“這一模型的核心優勢在于‘零代碼開發’和‘跨平臺通用’。開發者無需編程基礎,只需通過自然語言描述或上傳視頻、動捕數據,即可快速生成機器人可執行動作;同時,生成的動作指令可適配不同品牌、型號的機器人,并通過數據回流持續優化模型性能。”據介紹,該模型已通過光谷多個真實場景驗證,包括工業巡檢、物流搬運、服務接待等,動作生成效率較傳統方法提升80%以上。

基于動作大模型,“潛擎”創作平臺進一步降低了人形機器人開發門檻。潛空間具身智能(武漢)科技有限公司CEO陳睿表示:“目前市場上300余款人形機器人中,僅少數能實現高動態運動,主要受限于輸入方式單一、動作編排復雜、開發者技術壁壘高等問題。‘潛擎’平臺通過可視化界面和預置動作庫,讓普通用戶也能輕松完成機器人動作設計,真正實現‘一次創作、多機通用、全場景適配’。”例如,在物流場景中,用戶可通過文本描述“從貨架A取貨并放置到傳送帶B”,平臺自動生成符合機器人動力學特性的動作序列,并同步適配不同型號的機械臂。

湖北人形機器人創新中心作為技術落地支撐方,為模型研發提供了全鏈條驗證環境,包括數據采集、場地測試、真機調試和場景適配。中心還聯動產學研資源,推動技術快速轉化為商用產品,并搭建產業對接平臺,助力模型與平臺規?;瘧谩D壳?,該中心已與光谷東智、格藍若、宇樹、樂聚等企業達成生態合作,圍繞數據服務、模型訓練、場景落地等展開協同創新,持續壯大湖北具身智能產業生態。

此次動作大模型的發布,標志著湖北人形機器人創新中心從基礎建設階段邁向高質量運營階段。中心相關負責人表示,未來將持續強化數據核心能力、完善中試平臺建設、深化場景落地實踐,助力湖北打造全國領先的具身智能人形機器人產業高地。

 
 
更多>同類內容
全站最新
熱門內容