資訊在沃

戴盟攜手頂尖機構發布Daimon-Infinity,開啟具身智能數據基建新時代

   發布時間:2026-04-22 16:21 作者:朱天宇

當行業還在為具身智能的模型架構爭論不休時,一場關于數據基礎設施的競爭已悄然成為決定產業上限的關鍵戰場。近日,戴盟機器人攜手Google DeepMind、中國移動、新加坡國立大學、香港科技大學、北京大學、清華大學等全球頂尖機構,共同發布了全球首個含觸覺的全模態物理世界數據集Daimon-Infinity,標志著具身智能產業正式邁入"數據基建"新階段。

與傳統數據集不同,Daimon-Infinity的規劃規模堪稱驚人——年內將形成數百萬小時級數據儲備,覆蓋家庭、工業、戶外、公共服務等20余類真實場景,整合觸覺、視覺、動作軌跡、語音指令等12種模態信息。更引人注目的是,其首批1萬小時高質量數據已通過阿里魔搭社區開源,上線首日即登上社區熱推榜首,引發全球開發者關注。

這場數據革命的背后,是具身智能產業認知的根本性轉變。過去,行業聚焦于"誰的模型更強大"或"誰的機器人本體更精密",如今卻形成共識:要讓智能體真正走出實驗室,必須突破物理世界數據這一核心瓶頸。正如戴盟技術團隊所言:"沒有高質量、規模化、可持續生產的物理數據,再先進的模型也只是空中樓閣。"

觸覺數據的引入,堪稱Daimon-Infinity最顛覆性的創新。在真實場景中,機器人面對的從來不是理想化的環境:反光的玻璃、柔軟的織物、滑動的工具、變形的物體……這些復雜交互僅靠視覺無法處理。而戴盟通過自研的視觸覺轉換技術,將觸覺信號轉化為圖像化表達,使機器人能同時感知"物體位置"與"接觸狀態"——包括滑移趨勢、材質軟硬、紋理變化等15種關鍵物理參數。實驗數據顯示,使用該數據集預訓練的模型,在精細操作任務中僅需傳統數據量1/10即可達到更優效果,訓練效率提升10倍。

數據采集模式的革新同樣值得關注。傳統方式依賴封閉數采廠,導致數據場景單一、成本高昂。戴盟則構建了全球最大的外發式采集網絡,通過輕量化便攜設備,將數據采集延伸至家庭廚房、建筑工地、物流倉庫等真實場景。這種"去中心化"的采集模式,不僅使數據多樣性提升300%,更建立起可持續的數據生產體系——數百萬小時級的規劃規模,本質上是一個正在成型的數據基礎設施網絡。

從原始數據到模型可用,中間隔著巨大的技術鴻溝。觸覺與視覺、動作軌跡等多模態信息的時間對齊精度需達到毫秒級,接觸狀態的動態變化必須轉化為可學習的結構化樣本。為此,戴盟與阿里云聯合開發了全鏈路數據處理引擎,通過多模態融合算法和物理仿真重建技術,將海量原始數據轉化為"即插即用"的訓練燃料。這種"采-處-訓-用"的閉環體系,使數據價值實現指數級放大。

開源策略的深層邏輯,在于推動行業標準形成。此次發布由產業界與學術界共同參與,本質上是在構建具身智能時代的"數據公約"。當全球開發者基于同一套數據標準開發應用時,不同機器人系統的兼容性、場景遷移能力將得到質的提升。正如新加坡國立大學教授所言:"Daimon-Infinity不僅是個數據集,更是連接物理世界與數字世界的橋梁。"

在這場數據基建競賽中,戴盟的布局顯現出戰略級野心。通過掌控數據底座、訓練燃料和生態接口三大核心要素,其正在構建具身智能時代的"數據高速公路"。當行業還在爭論技術路線時,這條連接真實世界與模型訓練的主干道,或許已悄然決定著未來十年產業格局的走向。

 
 
更多>同類內容
全站最新
熱門內容