在人工智能技術(shù)深度滲透各行業(yè)的當(dāng)下,算力的高效利用成為推動(dòng)產(chǎn)業(yè)發(fā)展的關(guān)鍵要素。11月21日,2025AI容器應(yīng)用落地與發(fā)展論壇于上海召開,華為公司副總裁、數(shù)據(jù)存儲產(chǎn)品線總裁周躍峰博士在會上正式推出AI容器技術(shù)Flex:ai,并宣布聯(lián)合上海交通大學(xué)、西安交通大學(xué)與廈門大學(xué)將這一產(chǎn)學(xué)研合作成果開源,旨在破解算力資源利用的瓶頸問題。
周躍峰在主題為《Flex:ai AI容器技術(shù),釋放AI基礎(chǔ)設(shè)施潛力》的分享中指出,當(dāng)前大型企業(yè)的AI系統(tǒng)建設(shè)普遍追求規(guī)模化,千卡、萬卡集群對XPU資源的調(diào)度方式較為粗放。然而,當(dāng)AI技術(shù)向行業(yè)滲透時(shí),中小企業(yè)往往面臨算力資源有限的困境,例如僅擁有4卡、8卡或16卡的集群。這類場景下,如何以更精細(xì)的算力單元進(jìn)行調(diào)度、充分釋放每張卡的算力,成為亟待解決的問題。Flex:ai正是為滿足這一需求而生,其通過多級智能調(diào)度、算力資源切分及跨節(jié)點(diǎn)聚合技術(shù),顯著提升算力利用率,推動(dòng)AI技術(shù)向更廣泛的行業(yè)場景落地。
他進(jìn)一步解釋,傳統(tǒng)AI系統(tǒng)在任務(wù)調(diào)度上存在顯著痛點(diǎn):小任務(wù)單卡算力過剩,資源閑置;大任務(wù)單機(jī)算力不足,需多機(jī)協(xié)同;多任務(wù)并發(fā)時(shí),資源調(diào)度效率低下。例如,醫(yī)院病理科室的AI診斷場景中,多名醫(yī)生同時(shí)使用NPU資源進(jìn)行病理切片分析,若僅依賴增加硬件數(shù)量,成本壓力將難以承受。Flex:ai通過虛擬化技術(shù)將單卡拆分為更小算力單元,并實(shí)現(xiàn)跨節(jié)點(diǎn)資源聚合,有效解決了這些挑戰(zhàn)。
華為在推動(dòng)AI行業(yè)化落地的過程中,已持續(xù)開源多項(xiàng)技術(shù)成果。此前發(fā)布的DCS AI全棧解決方案中,全流程工具鏈ModelEngine已開放,支持AI工程師高效對接和優(yōu)化模型;數(shù)據(jù)匯聚工具鏈框架則加速了數(shù)據(jù)飛輪效應(yīng),提升模型自進(jìn)化能力。今年,為優(yōu)化推理效率,華為還推出了UCM推理記憶管理器,通過分級存儲推理數(shù)據(jù)至HBM、DRAM和SSD,結(jié)合數(shù)據(jù)系數(shù)矩陣管理,進(jìn)一步降低了推理延遲。
Flex:ai的研發(fā)始于一年前,華為與上海交大、西安交大、廈門大學(xué)的科研團(tuán)隊(duì)圍繞多級調(diào)度、資源切分和跨節(jié)點(diǎn)聚合等核心技術(shù)展開聯(lián)合攻關(guān)。周躍峰強(qiáng)調(diào),AI行業(yè)化落地需要產(chǎn)業(yè)鏈各方協(xié)同創(chuàng)新,開源是加速技術(shù)普及的重要途徑。Flex:ai的代碼將全面開放至模型社區(qū),供開發(fā)者共同完善,同時(shí)華為將持續(xù)與三所高校深化合作,推動(dòng)技術(shù)迭代。
此次開源標(biāo)志著華為在AI基礎(chǔ)設(shè)施領(lǐng)域的又一次突破。通過降低算力使用門檻,F(xiàn)lex:ai有望讓更多企業(yè)和機(jī)構(gòu)以低成本部署AI應(yīng)用,從醫(yī)療診斷到智能制造,從智慧城市到教育科研,技術(shù)紅利將覆蓋更廣泛的場景。隨著社區(qū)生態(tài)的壯大,這一容器技術(shù)或?qū)⒊蔀橥苿?dòng)AI平民化的關(guān)鍵基礎(chǔ)設(shè)施。





















