資訊在沃

科大訊飛星火X2-Flash模型發布:基于昇騰910B集群,長文本訓練效率大幅提升

   發布時間:2026-04-30 04:51 作者:楊凌霄

科大訊飛今日宣布,其最新研發的星火 X2-Flash 模型正式發布,并同步開放 API 接口供開發者使用。該模型基于華為昇騰 910B 集群訓練完成,采用先進的 MoE 架構,總參數規模達 30B,最大支持 256K 上下文長度,在智能體、代碼生成等核心能力上實現了顯著提升。

據介紹,星火 X2-Flash 在國產算力平臺上實現了多項技術突破。通過將 DSA(稀疏注意力)與 MTP(多 token 預測)相結合,該模型成功將上下文長度擴展至 256K,并通過算子優化和分布式訓練策略,使訓練效率較同規模 A800 集群提升 350%,有效解決了智能體長上下文在國產芯片上訓練緩慢的難題。在智能體強化學習場景中,其采樣推理效率較非 DSA 結構最高提升 2 倍,為大規模強化學習對齊訓練提供了算力保障。

開發者實測數據顯示,星火 X2-Flash 在深度研究報告生成、Skill 管理與調用等復雜任務中的表現已接近萬億級參數模型水平,而 token 消耗量僅為當前主流大尺寸模型的三分之一。以視頻生成 Skill 開發為例,該模型可快速理解需求并輸出包含技能結構、核心功能和使用案例的完整文檔,顯著降低了復雜 Agent 應用的開發成本。

在生態兼容性方面,星火 X2-Flash 已深度適配 OpenClaw、Claude Code 等主流 Agent 框架,并率先獲得 AstronClaw、Loomy 等平臺的接入支持??拼笥嶏w表示,此次發布標志著國產大模型在長文本處理效率和算力優化方面取得重要進展,為開發者構建高性能智能體應用提供了新選擇。目前,相關 API 接口已全面開放。

 
 
更多>同類內容
全站最新
熱門內容