比GPT-5還準?AIME25飆到99.9%刷屏,開源模型首次

新智元
08/23

編輯:定慧 好睏

【新智元導讀】DeepConf由Meta AI與加州大學聖地亞哥分校提出,核心思路是讓大模型在推理過程中實時監控置信度,低置信度路徑被動態淘汰,高置信度路徑則加權投票,從而兼顧準確率與效率。在AIME 2025上,它首次讓開源模型無需外部工具便實現99.9%正確率,同時削減85%生成token。

如何讓模型在思考時更聰明、更高效,還能對答案有把握?

最近,Meta AI與加州大學聖地亞哥分校的研究團隊給出了一個令人振奮的答案——Deep Think with Confidence(DeepConf),讓模型自信的深度思考。

論文地址:https://arxiv.org/pdf/2508.15260

項目主頁:https://jiaweizzhao.github.io/deepconf

這項新方法通過並行思考與“置信度篩選”,不僅讓模型在國際頂尖數學競賽AIME 2025上拿下了高達99.9%的正確率。

可以說,這是首次利用開源模型在AIME 2025上實現99.9%的準確率,並且不使用任何工具!

並且在保持高質量推理的同時,將生成的token數量削減了84.7%

DeepConf還爲並行思考(parallel thinking)帶來了多項硬核優勢:

性能飆升:在各類模型與數據集上,準確率平均提升約10%

極致高效:生成token數量銳減高達85%

即插即用:兼容任何現有模型——無需額外訓練(也無需進行超參數微調!)

輕鬆部署:在vLLM中僅需約50行代碼即可集成

以DeepConf在HMMT 25(哈佛–麻省理工數學競賽)的第11道題目上的推理過程爲例。

核心思想是DeepConf通過“置信度信號”篩選推理路徑,從而得到高質量答案,並在效率與準確率之間取得平衡。

橫軸(token index):表示模型生成的推理步驟(隨着token逐步增加)。

縱軸(confidence):表示每條推理路徑在該步驟上的置信度水平。

綠色曲線:表示不同推理路徑的置信度軌跡,越深的綠色表示置信度越高。

紅色叉叉:低於置信度閾值的推理路徑,被動態篩除。

綠色對勾:最終被保留下來的高置信度路徑。

最終表決:這些路徑在基於置信度加權的多數表決下,最終得出統一答案:29。

DeepConf在生成過程中,會持續監控推理路徑的置信度,低置信度路徑被及時淘汰,只保留“更有把握”的路徑,提升整體準確性。

通過準確率對比曲線,上圖可以看出縱軸是accuracy(準確率),黃色曲線(DeepConf)比藍色曲線(標準方法)明顯更高。

表明DeepConf在相同投票規模下能達到更高的準確率。

下圖橫軸是token數量(推理所需的計算成本),黃色曲線在準確率保持較高的同時,token消耗明顯更少。

表明DeepConf大幅減少了無效token的生成,推理效率更優。

DeepConf讓模型不再“胡思亂想”,而是高效地走在高置信度的推理軌道上。

DeepConf支持兩種工作模式:

離線模式:根據置信度篩選已完成的推理路徑,然後根據質量對投票進行加權。

在線模式:當置信度實時降至閾值以下時,立即停止生成。

DeepConf的祕訣是什麼?

其實,LLM知道自己何時開始不確定的,只是大家一直沒有認真關注過他們的“思考過程”。

之前的方法在完整生成之後使用置信度/熵用於測試時和強化學習(RL)。

DeepConf的方法不同,不是在完成後,而是在生成過程中捕捉推理錯誤。

DeepConf實時監控“局部置信度”,在錯誤的推理路徑消耗數千個token之前及時終止。

只有高質量、高置信度的推理路徑才能保留下來!

DeepConf是怎樣“用置信度篩選、用置信度投票”?

這張圖展示了DeepConf在離線思考時的核心機制:

它先判斷哪些推理路徑值得信賴,把不靠譜的路徑提前剔除,再讓靠譜的路徑進行加權投票,從而得到一個更準確、更高效的最終答案。

首先是每一token“有多確定”。

當模型在寫推理步驟時,其實每個詞(token)背後都有一個“信心值”。

如果模型覺得“這一步答案很靠譜”,信心值就高。如果它自己都拿不準,這個信心值就會低。

上圖裏用不同深淺的綠色和紅色標出來:綠色=更自信,紅色=不自信。

其次,不光要看單token,還要看整體趨勢。

DeepConf不只看某一個詞,而是會滑動窗口:看看一小段話裏的平均信心值,衡量“這段話整體是否靠譜”。

重點看看最後幾句話的信心值,因爲最終答案、最終結論往往決定於結尾。

DeepConf也會記下這條推理鏈裏最差的一步,如果中間有明顯“翻車”,這條路徑就不太可靠。

這樣一來,每條完整的推理鏈路都會得到一個綜合的“置信度分數”。

最後,是先淘汰,再投票。

當模型並行生成很多條不同的推理路徑時:

第一步:過濾,把“置信度分數”排序,最差的10%直接丟掉,避免浪費。

第二步:投票,在剩下的推理鏈裏,不是簡單數票,而是按照置信度加權投票。

也就是說:一條高置信度的路徑,它的意見分量更大;低置信度的路徑,即便答案一樣,也不會拉高太多票重。

最後看一下結果,在圖的右邊可以看到:有的路徑說“答案是109”,有的說“答案是103、104、98”。

但由於支持“109”的路徑更多、而且置信度更高,所以最終投票選出了109作爲答案。

成績刷爆99.9%

比GPT-5還高

離線模式結果:在AIME 2025上達到99.9%的準確率(基線爲97%)!

在5個模型×5個數據集上實現普適性增益。

在所有設置下均取得約10%的穩定準確率提升。

在線模式結果:在所有基準測試中節省33%-85%的token!

在AIME 2025基準測試中,使用GPT-OSS-120B,在減少85%的token消耗下,仍達到97.9%的準確率。

該方法適用於從8B到120B的各類開源模型——在不犧牲質量的前提下實現實時高效。

在離線環境中對置信度度量進行基準測試。報告的數值爲準確率(%)。

Cons@512和mean@512分別表示使用512條推理軌跡進行的多數投票結果,以及平均置信度的均值。所有實驗均重複進行了64次。

在在線環境中對DeepConf進行基準測試。

在投票規模預算爲512的條件下,報告多數投票方法與DeepConf(高/低)的方法的準確率(%)以及生成的token數量(×10⁸)。

基於置信度的深度思考

研究者的思考是:到底怎麼把“置信度”用得更巧妙,讓模型既想得更準,又想得更快呢?

正如前文所述,這裏可以分成兩個使用場景:

離線思考:等模型把一整條推理路徑都寫完了,再回頭去評估每條路徑的置信度,把靠譜的結果聚合在一起。這樣做的好處是能最大化提升答案的準確性

在線思考:在模型一步步生成推理的過程中,就實時參考置信度。如果發現某條思路不靠譜,可以及時停掉,避免浪費算力。這樣能邊走邊篩選,提升效率甚至精度

離線思考

在離線思考模式下,每個問題的所有推理路徑均已生成。

此時的核心挑戰是:如何聚合來自多條路徑的信息,從而更準確地確定最終答案。

針對這一點,研究人員採用了標準的多數投票(majority voting)方法。

多數投票(Majority Voting)

在標準的多數投票中,每條推理路徑得出的最終答案對最終決策的貢獻是均等的。

設T爲所有已生成路徑的集合,對於任意路徑t∈T,設answer(t)爲從該路徑中提取的答案文本。

那麼,每個候選答案a的票數爲:

置信度加權多數投票

這個方法不再均等對待每條路徑的投票,而是依據其關聯路徑的置信度,爲每個最終答案賦予權重。

對於每個候選答案a,它的總投票權會被重定義爲:

置信度過濾

在加權多數投票的基礎上,還需要應用置信度過濾,才能在將投票更集中於高置信度的推理路徑。

具體來說就是,通過路徑的置信度分數,篩選出排序前η%的路徑,從而確保只有最可靠的路徑參與最終答案的決定。

選擇前10%:專注於置信度最高的少數路徑。適用於少數路徑就能解決問題的場景,但風險是如果模型存在偏見,容易選錯答案。

選擇前90%:納入更廣泛的路徑。這種方法能保持多樣性、減少模型偏見,在各路徑置信度相差不大時尤其穩健。

圖3闡釋了各種置信度度量方法以及基於置信度的離線思考的工作原理。

算法1則提供了該算法的詳細實現。

在線思考

在線思考模式通過在生成過程中實時評估推理路徑的質量,來動態終止低質量的路徑,進而確保其在後續的置信度過濾階段大概率能被排除。

對此,研究人員提出了兩種基於最低分組置信度,並會自適應地中止生成過程並調整推理路徑的預算的方法:DeepConf-low和DeepConf-high。

其中,共包含兩大核心組件:離線預熱與自適應採樣。

離線預熱(Offline Warmup)

DeepConf需要一個離線預熱階段,以便爲在線決策過程建立停止閾值s。

對於每個新的提示詞,首先生成Ninit條推理路徑(例如,Ninit=16)。

停止閾值s定義爲:

在所有配置下,DeepConf-low均統一採用前η=10%的策略,而DeepConf-high則統一採用前η=90%的策略。

在在線生成過程中,一旦某條推理路徑的置信度低於預熱階段的數據所設定的、能夠篩選出置信度排序前η%路徑的最低門檻,生成過程就會被終止。

自適應採樣(Adaptive Sampling)

在DeepConf中,所有方法都採用了自適應採樣,如此就可以根據問題難度動態調整所生成推理路徑的數量。

問題難度通過已生成路徑之間的一致性程度來評估,其量化方式爲多數投票權重與總投票權重的比值:

若β

由於採用的是最低分組置信度,一個足夠大的預熱集便能產生對停止閾值s的精確估計。

因此,任何被在線終止的路徑,其分組置信度必然低於s,也就會被離線過濾器所排除。

這樣,在線流程便能近似於離線的最低分組置信度策略,並且隨着Ninit的增加,其準確率會逼近離線策略的準確率。

圖4中闡釋了在線生成的過程。

算法2則提供了該算法的詳細實現。

具體過程,我們就用上圖裏的這道“勾股三元組計數”問題舉個例子。

DeepConf要在生成推理的同時判斷:哪條思路靠譜、該繼續;哪條思路不靠譜、該儘早停,從而少花token、又更準。

兩個階段:先定閾值,再在線篩

1. Offline Warm-up(上圖右側,離線預熱)

先離線跑幾條完整的推理軌跡(Trace 1~5),給每條算一個“整體有多靠譜”的分數。

按分數做一次置信度過濾,好的軌跡在上方(綠色),差的在下方(紅色)。

據此確定一個停止閾值s(圖中綠色箭頭標註)。

簡單來說就是低於 s 的,通常是不值得繼續的推理。

這一步就像“熱身+標定”,模型把“該不該停”的門檻先定好。

2. Online Generation(上圖中間,在線生成)

正式解題時,同時展開多條並行思路(多行的方塊序列)。

對每條思路,系統滾動地評估“這段話最近一小段的可靠度”(圖中方塊從左到右代表一步步的生成)。

左下 & 右下的小曲線各自表示模型的“把握”程度。

左下綠曲線表示模型對接下來的詞更“有把握”,示例文本是正經的數學推理(如“勾股三元組公式…”),這類內容通常被保留。

右下紅曲線表示模型在猶豫或“自我懷疑”,示例文本是“讓我再想想、回頭檢查一下…”,這類猶豫/兜圈子的片段常被判爲低置信度,從而觸發在線早停。

先離線確定“可靠度閾值s”,再在線用s給並行思路“邊走邊檢查”。

不靠譜就當場叫停,靠譜的繼續前進。這樣就能做到既快又準了。

作者介紹

Yichao Fu

論文一作Yichao Fu是加州大學聖地亞哥分校(UC San Diego)計算機科學與工程系的博士生,師從張昊教授,也就是老朋友Hao AI Lab的負責人。

此前,他在浙江大學獲得計算機科學學士學位。

他的研究興趣主要爲分佈式系統、機器學習系統以及高效機器學習算法,近期專注於爲LLM的推理過程設計並優化算法與系統。

他參與的項目包括:Lookahead Decoding、vllm-ltr和Dynasor。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10