資訊在沃

科大訊飛星火X2-Flash模型發布:國產算力突破,智能體訓練效率大幅提升

   發布時間:2026-04-30 12:00 作者:吳俊

科大訊飛今日宣布,其全新研發的星火X2-Flash模型正式上線,并同步開放API接口供開發者使用。該模型基于華為昇騰910B集群訓練,采用先進的MoE架構,總參數規模達30B,最大支持256K上下文處理,在智能體交互、代碼生成等核心能力上實現顯著突破。

據實測數據顯示,在AstronClaw框架的驗證中,星火X2-Flash在深度研究報告生成、技能管理調用、系統控制執行等復雜任務場景下,性能表現已接近萬億級參數模型水平。更值得關注的是,該模型在相同工作流中的token消耗量僅為主流大模型的三分之一,大幅降低了開發者構建智能體應用的成本門檻。以視頻生成技能開發為例,模型可快速理解需求并輸出包含技能架構、核心功能及使用案例的完整技術文檔。

技術層面,研發團隊通過創新性的DSA(稀疏注意力)與MTP(多token預測)算法融合,在國產算力平臺上實現了長文本訓練效率的質的飛躍。通過針對性優化的算子設計和分布式訓練策略,模型在昇騰910B集群上的訓練效率較同規模A800集群提升350%,成功解決國產芯片訓練長上下文智能體的效率瓶頸。在強化學習場景中,采樣解碼效率較傳統結構提升最高達200%,有效緩解了長交互場景下的RL訓練算力壓力。

兼容性方面,星火X2-Flash已完成與OpenClaw、Claude Code等主流Agent框架的深度適配,開發者可無縫接入現有技術棧。目前AstronClaw、Loomy等智能體開發平臺已率先完成集成,為行業提供更高效的AI工具鏈選擇??拼笥嶏w同步公布的API接口文檔顯示,開發者可通過標準化接口調用模型能力,加速智能體應用的商業化落地進程。

 
 
更多>同類內容
全站最新
熱門內容