資訊在沃

機器人基礎模型π0.7問世:組合泛化突破,通用“大腦”離現實更近一步

   發布時間:2026-04-20 02:48 作者:趙云飛

一家成立僅兩年的機器人初創公司Physical Intelligence,憑借其最新發布的機器人基礎模型π0.7,在人工智能與機器人領域引發了廣泛關注。這款模型賦予機器人執行未明確訓練任務的能力,從操作空氣炸鍋烹飪紅薯,到在從未接觸過衣物折疊數據的工業機器人上成功疊好T恤,展現出令人驚嘆的泛化能力。

π0.7的突破性在于其能力并非預先設計,而是在訓練過程中自然“涌現”。研究科學家Ashwin Balakrishna分享了一個典型案例:他隨機購買了一個齒輪組,詢問機器人能否轉動它,結果機器人成功完成了任務。這種超越機械記憶、能夠組合技能解決新問題的能力,在機器人領域尚屬首次,標志著機器人AI可能正接近類似大語言模型領域的“GPT-2時刻”——能力開始以超出基礎數據預期的方式增長。

在空氣炸鍋實驗中,π0.7的表現尤為引人注目。盡管模型僅見過兩個相關片段,未接觸過完整的“拿起紅薯-打開炸籃-放入-關閉-啟動”操作鏈,但當研究者通過語言逐步指導時,它能夠精準跟隨指令完成整個烹飪流程。早期實驗成功率僅5%,但通過優化提示工程,成功率迅速提升至95%。這一現象與大語言模型的“涌現”能力類似,模型能夠將從未同時出現的技能重新組合,展現出強大的適應性。

跨具身遷移實驗則進一步證明了π0.7的物理形態適應性。研究團隊在一個完全不同的機器人平臺——雙臂UR5e系統上測試π0.7。這款工業機械臂手臂更長、更重,夾爪精度較低,且研究者未用其收集過任何衣物折疊數據。然而,π0.7不僅成功折疊了T恤和毛巾,任務進度達到85.6%,成功率80%,幾乎與擁有375小時遠程操作經驗的頂級人類操作員持平。更關鍵的是,π0.7沒有盲目模仿訓練數據中的動作,而是根據UR5e的物理特性調整策略,采用垂直抓取而非源機器人常用的傾斜抓取,體現了對任務目標的理解和身體特性的適配。

在常規靈巧操作任務中,π0.7同樣表現出色。與通過強化學習微調的專用模型π0.6*相比,π0.7在制作濃縮咖啡、組裝盒子、削蔬菜皮等任務上達到或超越了專用模型的性能。例如,在衣物折疊任務中,π0.7的吞吐量甚至超過了RL專家模型;在需要記憶的任務中,它無需微調即可達到與專用記憶模型相似的水平。指令遵循方面,π0.7在14個開放式指令場景中的成功率顯著高于前代模型,能夠處理復雜指代指令,如“拿起最大盤子上的水果”,并結合子目標圖像進一步提升性能。

π0.7的技術核心是一個約50億參數的視覺-語言-動作模型(VLA),其架構包含視覺-語言骨干網絡、動作專家模塊、記憶機制和多模態上下文處理。訓練數據涵蓋多種機器人平臺的演示數據、自主策略評估數據、人類遠程操作干預數據、第一人稱人類視頻以及互聯網非機器人數據。通過元數據標注區分數據質量,模型能夠從次優數據中學習而不損害性能,同時利用“知識絕緣”技術穩定學習多模態上下文。

 
 
更多>同類內容
全站最新
熱門內容