在线亚洲国产一区二区三区-日韩亚洲欧洲人妻三区中文字幕-国产精品一区二区男女羞羞无遮挡-日韩特黄免费在线观看-视频一区二区三区免费在线视频-天天在线天天看成人免费视频-人人妻天天爽夜夜爽视频-国产极品久久久久久久久久-老司机午夜福利视频一区

資訊在沃

高德開源ABot-M0:全球首創(chuàng)統(tǒng)一架構(gòu),賦能具身機器人“通用大腦”新突破

   發(fā)布時間:2026-03-31 21:24 作者:顧雨柔

全球具身智能領(lǐng)域迎來重要突破——高德正式宣布全量開源ABot-M0,這是全球首個基于統(tǒng)一架構(gòu)的機器人具身操作基座模型。該模型通過構(gòu)建"通用大腦"系統(tǒng),實現(xiàn)了對多種形態(tài)具身機器人的適配能力,為行業(yè)提供了可復用的技術(shù)基座。

在權(quán)威基準測試中,ABot-M0展現(xiàn)出顯著優(yōu)勢。該模型在Libero-Plus測試中取得80.5%的任務(wù)成功率,較前代標桿方案Pi0提升近30個百分點。在RoboCasa等國際主流測試平臺同樣達到SOTA(最優(yōu)技術(shù)水平),驗證了其跨場景操作能力的可靠性。測試數(shù)據(jù)顯示,模型在復雜環(huán)境下的物體抓取、路徑規(guī)劃等核心任務(wù)中表現(xiàn)尤為突出。

開源體系涵蓋三大核心維度:數(shù)據(jù)層面構(gòu)建了全球規(guī)模最大的UniACT通用機器人數(shù)據(jù)集,整合超過600萬條真實操作軌跡,通過統(tǒng)一動作表示體系破解異構(gòu)數(shù)據(jù)兼容難題;算法層面創(chuàng)新提出動作流形學習(AML)與雙流感知架構(gòu),前者通過直接生成物理可行動作序列提升解碼效率,后者通過3D幾何模塊與視覺語言模型(VLM)的協(xié)同工作增強空間理解能力;模型層面提供完整的預訓練框架與工具鏈,支持工業(yè)場景的機械臂操作與家庭服務(wù)機器人的移動導航等多樣化應(yīng)用。

技術(shù)突破集中體現(xiàn)在兩大創(chuàng)新算法。動作流形學習(AML)突破傳統(tǒng)試錯式預測模式,通過構(gòu)建動作空間流形結(jié)構(gòu)實現(xiàn)高效解碼,使策略穩(wěn)定性提升40%以上。雙流感知架構(gòu)采用模塊化設(shè)計,在保持Qwen3-VL骨干網(wǎng)絡(luò)不變的前提下,通過可插拔的3D幾何模塊(如VGGT)注入空間先驗知識,有效彌補視覺語言模型在三維推理方面的不足。這種設(shè)計既保證了高級語義理解能力,又強化了物理空間感知精度。

該模型的開源具有顯著產(chǎn)業(yè)價值。統(tǒng)一架構(gòu)驗證了"通用大腦+專用軀體"技術(shù)路線的可行性,為制定行業(yè)技術(shù)標準提供實證依據(jù)。開發(fā)者可基于預訓練模型快速構(gòu)建垂直領(lǐng)域解決方案,避免重復開發(fā)訓練框架。數(shù)據(jù)集提供的標準化處理管線,使不同廠商的機器人數(shù)據(jù)能夠跨平臺復用,預計可將預訓練周期縮短60%以上。目前已有多家機器人企業(yè)啟動基于ABot-M0的二次開發(fā),涵蓋智能制造、物流倉儲、醫(yī)療護理等多個領(lǐng)域。

 
 
更多>同類內(nèi)容
全站最新
熱門內(nèi)容