在线亚洲国产一区二区三区-日韩亚洲欧洲人妻三区中文字幕-国产精品一区二区男女羞羞无遮挡-日韩特黄免费在线观看-视频一区二区三区免费在线视频-天天在线天天看成人免费视频-人人妻天天爽夜夜爽视频-国产极品久久久久久久久久-老司机午夜福利视频一区

資訊在沃

螞蟻集團(tuán)發(fā)布萬(wàn)億參數(shù)思考模型Ring-2.5-1T 破解深度思考模型效率難題

   發(fā)布時(shí)間:2026-02-14 23:54 作者:沈如風(fēng)

深度思考模型長(zhǎng)期面臨一個(gè)棘手的挑戰(zhàn):若要實(shí)現(xiàn)嚴(yán)密的邏輯推理,往往需要犧牲解碼速度,同時(shí)承受巨大的顯存消耗。這一困境如同“不可能三角”,制約著模型性能的進(jìn)一步提升。為突破這一瓶頸,行業(yè)普遍采用混合專家模型(MoE)架構(gòu),通過(guò)部分參數(shù)激活來(lái)降低算力需求,DeepSeek、Kimi、MiniMax等頭部模型均沿用了這一路徑。

近日,螞蟻集團(tuán)宣布開源全球首個(gè)基于混合線性架構(gòu)的萬(wàn)億參數(shù)思考模型——Ring-2.5-1T。該模型通過(guò)架構(gòu)創(chuàng)新,首次同時(shí)實(shí)現(xiàn)了推理速度、深度思考能力與長(zhǎng)程任務(wù)執(zhí)行效率的協(xié)同優(yōu)化。在數(shù)學(xué)競(jìng)賽評(píng)測(cè)中,Ring-2.5-1T以IMO金牌級(jí)35分(滿分42)和CMO 105分(遠(yuǎn)超國(guó)家集訓(xùn)隊(duì)分?jǐn)?shù)線)的成績(jī)證明其邏輯嚴(yán)謹(jǐn)性;在32K以上長(zhǎng)文本生成場(chǎng)景中,其訪存規(guī)模較上一代降低90%,生成吞吐量提升超3倍,為搜索、編碼等復(fù)雜任務(wù)提供了高效解決方案。

Ring-2.5-1T的核心優(yōu)勢(shì)源于其底層架構(gòu)的突破性設(shè)計(jì)。該模型基于Ling 2.5架構(gòu),采用混合線性注意力機(jī)制,將MLA(多頭潛在注意力)與Lightning Linear Attention以1:7的比例融合。這一設(shè)計(jì)源自螞蟻此前發(fā)布的Ring-flash-linear-2.0技術(shù)路線,通過(guò)增量訓(xùn)練將原有GQA(分組查詢注意力)層轉(zhuǎn)化為兩種注意力模塊:Lightning Linear Attention負(fù)責(zé)長(zhǎng)程推理中的吞吐量提升,MLA則極致壓縮KV Cache以減少顯存占用。為彌補(bǔ)架構(gòu)改造可能導(dǎo)致的表達(dá)能力損失,研發(fā)團(tuán)隊(duì)引入了QK Norm和Partial RoPE等特性,使激活參數(shù)量從上一代的51B提升至63B,同時(shí)憑借線性時(shí)間復(fù)雜度特性,推理效率實(shí)現(xiàn)質(zhì)的飛躍。與同參數(shù)量級(jí)但僅32B激活參數(shù)的Kimi K2架構(gòu)相比,Ling 2.5架構(gòu)在長(zhǎng)序列任務(wù)中的吞吐優(yōu)勢(shì)隨生成長(zhǎng)度增加持續(xù)擴(kuò)大,徹底改變了長(zhǎng)程推理“高成本、低效率”的行業(yè)現(xiàn)狀。

邏輯嚴(yán)謹(jǐn)性是深度思考模型的另一大核心指標(biāo)。Ring-2.5-1T在訓(xùn)練階段引入密集獎(jiǎng)勵(lì)機(jī)制,突破傳統(tǒng)強(qiáng)化學(xué)習(xí)僅關(guān)注最終答案正確性的局限,通過(guò)逐步考察推理過(guò)程的每個(gè)環(huán)節(jié),顯著提升模型對(duì)邏輯漏洞的識(shí)別能力與高階證明技巧的運(yùn)用水平。團(tuán)隊(duì)采用大規(guī)模全異步Agentic RL訓(xùn)練方法,增強(qiáng)模型在搜索、編碼等長(zhǎng)鏈條任務(wù)中的自主執(zhí)行能力,使其從“數(shù)學(xué)解題專家”進(jìn)化為“復(fù)雜場(chǎng)景智能體”。

在基準(zhǔn)測(cè)試中,Ring-2.5-1T與DeepSeek-v3.2-Thinking、Kimi-K2.5-Thinking等開源模型,以及GPT-5.2-thinking-high、Gemini-3.0-Pro-preview-thinking-high等閉源API展開全面對(duì)比。結(jié)果顯示,該模型在IMOAnswerBench、AIME 26等高難度推理任務(wù),以及Gaia2-search、Tau2-bench等長(zhǎng)時(shí)任務(wù)執(zhí)行基準(zhǔn)上均達(dá)到開源最優(yōu)水平。在Heavy Thinking模式下,其數(shù)學(xué)競(jìng)賽與代碼生成能力更超越所有對(duì)比模型,包括閉源API。以IMO 2025為例,Ring-2.5-1T以35分?jǐn)孬@金牌,CMO 2025則以105分遠(yuǎn)超金牌線78分與國(guó)家集訓(xùn)隊(duì)選拔線87分,較上一代Ring-1T在推理嚴(yán)謹(jǐn)性、證明技巧運(yùn)用與答案完整性上均有顯著提升。

為推動(dòng)技術(shù)生態(tài)落地,Ring-2.5-1T已完成對(duì)Claude Code、OpenClaw等主流智能體框架的適配,支持多步規(guī)劃與工具調(diào)用。目前,模型權(quán)重與推理代碼已在Hugging Face、ModelScope等平臺(tái)開放下載,官方Chat體驗(yàn)頁(yè)與API服務(wù)即將上線。同期,螞蟻集團(tuán)還發(fā)布了擴(kuò)散語(yǔ)言模型LLaDA2.1與全模態(tài)大模型Ming-flash-omni-2.0:前者采用非自回歸并行解碼技術(shù),推理速度達(dá)535 tokens/s,在Humaneval+編程任務(wù)中突破892 tokens/s,并具備Token編輯與逆向推理能力;后者則實(shí)現(xiàn)視覺(jué)、音頻、文本的統(tǒng)一表征與生成,支持實(shí)時(shí)感官交互,為多模態(tài)創(chuàng)作提供底層能力支撐。螞蟻inclusionAI團(tuán)隊(duì)表示,將持續(xù)聚焦視頻時(shí)序理解、復(fù)雜圖像編輯與長(zhǎng)音頻實(shí)時(shí)生成等技術(shù)方向,推動(dòng)全模態(tài)能力的規(guī)?;瘧?yīng)用。

隨著AI應(yīng)用場(chǎng)景從短對(duì)話向長(zhǎng)文檔處理、跨文件代碼理解與復(fù)雜任務(wù)規(guī)劃延伸,深度思考模型的效率瓶頸日益凸顯。Ring-2.5-1T通過(guò)架構(gòu)重構(gòu),為行業(yè)提供了一條兼顧性能、成本與擴(kuò)展性的技術(shù)路徑。當(dāng)“高速、精準(zhǔn)、深度”不再相互制約,深度思考模型的應(yīng)用邊界正被重新定義。

 
 
更多>同類內(nèi)容
全站最新
熱門內(nèi)容