在线亚洲国产一区二区三区-日韩亚洲欧洲人妻三区中文字幕-国产精品一区二区男女羞羞无遮挡-日韩特黄免费在线观看-视频一区二区三区免费在线视频-天天在线天天看成人免费视频-人人妻天天爽夜夜爽视频-国产极品久久久久久久久久-老司机午夜福利视频一区

資訊在沃

斯坦福MIT聯(lián)合推出ReCAP:攻克長(zhǎng)上下文難題,性能顯著超越ReAct

   發(fā)布時(shí)間:2025-12-05 17:11 作者:鐘景軒

斯坦福大學(xué)與麻省理工學(xué)院(MIT)聯(lián)合研究團(tuán)隊(duì)近日宣布,推出一種名為ReCAP的新型AI推理框架,在長(zhǎng)上下文任務(wù)中展現(xiàn)出顯著優(yōu)勢(shì),全面超越當(dāng)前主流的ReAct框架。這一突破性成果標(biāo)志著AI智能體推理領(lǐng)域迎來(lái)新一代通用架構(gòu),為解決大語(yǔ)言模型在復(fù)雜任務(wù)中的核心挑戰(zhàn)提供了創(chuàng)新方案。

自2022年ReAct框架問(wèn)世以來(lái),AI推理領(lǐng)域涌現(xiàn)出眾多復(fù)雜架構(gòu),但多數(shù)因結(jié)構(gòu)冗余導(dǎo)致泛化能力不足。研究團(tuán)隊(duì)指出,現(xiàn)有框架在處理長(zhǎng)序列任務(wù)時(shí)普遍存在三大瓶頸:目標(biāo)漂移(執(zhí)行過(guò)程中偏離初始目標(biāo))、上下文斷層(高層規(guī)劃與底層執(zhí)行脫節(jié))以及成本爆炸(遞歸推理導(dǎo)致計(jì)算資源指數(shù)級(jí)增長(zhǎng))。這些問(wèn)題使得ReAct成為過(guò)去三年中最穩(wěn)定、通用的基準(zhǔn)框架。

ReCAP通過(guò)遞歸樹(shù)結(jié)構(gòu)與三大核心機(jī)制,首次實(shí)現(xiàn)了序列推理與層級(jí)推理的有機(jī)統(tǒng)一。其"計(jì)劃前瞻分解"機(jī)制允許模型生成完整子任務(wù)列表后動(dòng)態(tài)優(yōu)化后續(xù)計(jì)劃;"結(jié)構(gòu)化父任務(wù)再注入"機(jī)制確保所有任務(wù)共享單一上下文,通過(guò)父任務(wù)思維回溯保持目標(biāo)一致性;"滑動(dòng)窗口記憶"機(jī)制則通過(guò)關(guān)鍵歷史保留機(jī)制控制內(nèi)存占用,從根本上避免成本失控。研究負(fù)責(zé)人表示:"這種設(shè)計(jì)讓模型既具備全局視野,又能聚焦當(dāng)前步驟,類(lèi)似人類(lèi)在復(fù)雜任務(wù)中'邊規(guī)劃邊調(diào)整'的思維方式。"

在嚴(yán)格遵循pass@1評(píng)測(cè)標(biāo)準(zhǔn)(不使用重試或投票機(jī)制)的實(shí)驗(yàn)中,ReCAP在多項(xiàng)基準(zhǔn)測(cè)試中取得突破性進(jìn)展:在長(zhǎng)序列具身任務(wù)Robotouille(同步模式)中成功率達(dá)70%,較ReAct提升84.2%;異步模式下成功率53%,提升112.5%;在代碼編輯任務(wù)SWE-bench Verified中成功率44.8%,優(yōu)于ReAct基線5.2個(gè)百分點(diǎn)。更關(guān)鍵的是,這種性能提升不依賴(lài)樣本層面的優(yōu)化,展現(xiàn)了真正的執(zhí)行穩(wěn)定性。

技術(shù)突破背后是計(jì)算成本的權(quán)衡。實(shí)驗(yàn)數(shù)據(jù)顯示,ReCAP的總計(jì)算量約為ReAct的三倍,主要源于計(jì)劃前瞻分解機(jī)制帶來(lái)的額外模型調(diào)用。但研究團(tuán)隊(duì)強(qiáng)調(diào),在醫(yī)療診斷、自動(dòng)駕駛等對(duì)準(zhǔn)確性要求極高的場(chǎng)景中,這種成本增加完全可接受。麻省理工學(xué)院Alex Pentland教授指出:"當(dāng)性能提升幅度超過(guò)成本增速時(shí),這就不是簡(jiǎn)單的技術(shù)迭代,而是范式轉(zhuǎn)移的開(kāi)始。"

該框架的潛力已延伸至具身智能與空間智能的交叉領(lǐng)域。研究演示中,ReCAP成功規(guī)劃了機(jī)器人完成多步驟廚房任務(wù),其遞歸規(guī)劃能力與空間感知模型形成互補(bǔ)——前者負(fù)責(zé)長(zhǎng)期目標(biāo)分解,后者處理實(shí)時(shí)環(huán)境交互。這種協(xié)同模式為自主機(jī)器人、復(fù)雜系統(tǒng)維護(hù)等應(yīng)用開(kāi)辟了新路徑。斯坦福博士后研究員Jiaxin Pei透露,團(tuán)隊(duì)正在探索將ReCAP與多模態(tài)大模型結(jié)合,使其能處理包含圖像、文本、傳感器數(shù)據(jù)的混合輸入。

目前,ReCAP的代碼已開(kāi)源,其模塊化設(shè)計(jì)允許開(kāi)發(fā)者根據(jù)需求調(diào)整遞歸深度與記憶窗口大小。這項(xiàng)研究不僅為AI推理提供了新基準(zhǔn),更揭示了遞歸結(jié)構(gòu)在通用智能中的核心價(jià)值。正如論文所論:"從圖靈機(jī)到人類(lèi)認(rèn)知,遞歸始終是處理復(fù)雜性的基礎(chǔ)邏輯。ReCAP的實(shí)踐表明,這種邏輯可以通過(guò)工程化手段轉(zhuǎn)化為可計(jì)算的智能形態(tài)。"

 
 
更多>同類(lèi)內(nèi)容
全站最新
熱門(mén)內(nèi)容