搜索智能體RAG落地不佳?UIUC開源s3,僅需2.4k樣本,訓練快效果好

市場資訊
2025/06/17

  炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!

當前,Agentic RAG(Retrieval-Augmented Generation)正逐步成為大型語言模型訪問外部知識的關鍵路徑。但在真實實踐中,搜索智能體的強化學習訓練並未展現出預期的穩定優勢。一方面,部分方法優化的目標與真實下游需求存在偏離,另一方面,搜索器與生成器間的耦合也影響了泛化與部署效率。

我們(UIUC & Amazon)提出的s3(Search-Select-Serve)是一種訓練效率極高、結構松耦合、生成效果導向的 RL 範式。該方法使用名為Gain Beyond RAG (GBR)的獎勵函數,衡量搜索器是否真的為生成帶來了有效提升。實驗表明,s3 在使用僅2.4k 訓練樣本的情況下,便在多個領域問答任務中超越了數據規模大百倍的強基線(如 Search-R1、DeepRetrieval)。

研究動機

RAG 的發展軌跡:從靜態檢索到 Agentic 策略

我們將 RAG 系統的發展分為三階段:

1.Classic RAG:使用固定 query、BM25 等 retriever,生成器對結果無反饋;

2.Pre-RL-Zero Active RAG:引入多輪 query 更新,如 IRCoT、Self-RAG 等,部分通過 prompt 引導 LLM 檢索新信息。Self-RAG 進一步通過蒸餾大型模型的行為,訓練小模型模擬多輪搜索行為;

3.RL-Zero 階段:強化學習開始用於驅動檢索行為,代表方法如:

儘管 RL 方法在思路上更具主動性與交互性,但在實際落地中仍面臨諸多挑戰。

當前 RL-based Agentic RAG 落地表現不佳的原因

我們對當前 Agentic RAG 方案效果不穩定、訓練難、遷移能力弱的原因,歸納為三點:

1. 優化目標偏離真實下游任務

Search-R1 等方法採用Exact Match (EM)作為主要獎勵指標,即答案是否與參考答案字面一致。這一指標過於苛刻、對語義變體不敏感,在訓練初期信號稀疏,容易導致模型優化「答案 token 對齊」而非搜索行為本身

例如,對於問題「美國第 44 任總統是誰?」,

這種不合理的信號會誘導模型在生成階段做格式補償,從而無法反映搜索策略本身是否有效

2. 檢索與生成耦合,干擾搜索優化

將生成納入訓練目標(如 Search-R1),雖然可以提升整體答案準確率,但也會帶來問題:

3. 現有評價標準無法準確衡量搜索貢獻

EM、span match 等傳統 QA 指標主要關注輸出結果,與搜索質量關聯有限。而 search-oriented 指標(如 Recall@K)雖可度量 retriever 性能,卻無法體現這些信息是否真的被模型「用好」。這些偏差直接導致現有 RL Agentic RAG 方法在評估、訓練和泛化上均存在瓶頸。

s3 - 專注搜索效果優化的 search agent RL 訓練框架

s3 的出發點很簡單

如果我們真正關心的是「搜索提升了生成效果」,那就應該只訓練搜索器、凍結生成器,並以生成結果提升為獎勵

這便是「Gain Beyond RAG(GBR)」的定義:

即:用 s3 搜索到的上下文餵給 Frozen Generator 之後的生成效果,相比初始的 top-k 檢索結果是否更好。值得注意的是,s3 訓練時始終初始化於相同的原始 query,從而能清晰對比 s3 檢索對結果帶來的真實「增益」。

準確率(Acc)評估標準

我們採用了更語義友好Generation Accuracy(GenAcc)指標。它結合了兩種機制:

兩者只要任意一個通過,則視為正確。這一指標在人工對比中與人類判斷一致率高達96.4%,相比之下,EM 僅為15.8%

訓練與優化 - 僅需 2.4k 樣本即可完成 ppo 訓練:

我們採用 PPO 進行策略優化。為了提升訓練效率:

s3 訓練總時間只需 114 分鐘(vs Search-R1 的 3780 分鐘),數據也減少約 70 倍。

實驗分析

General QA w/ RAG

實驗一:通用 QA 任務,s3 優於 Search-R1 和 DeepRetrieval。

我們在六個通用數據集上評估了 Direct Inference、Naive RAG、IRCoT、DeepRetrieval、Search-o1、Search-R1 以及 s3 的性能。實驗中,我們使用了不同的下游 LLM,包括 Qwen2.5-7B-Instruct,Qwen2.5-14B-Instruct 和 Claude-3-Haiku。

儘管 s3 僅使用了 2.4k 條 NQ+HotpotQA 訓練數據(training source 和 Search-R1 一樣),它在其中五個數據集上實現了最優表現,展現出顯著的泛化能力。

Medical QA w/ RAG

實驗二:醫學 QA 任務,s3 展現驚人的跨領域能力

我們隨後在五個醫學領域的 QA 數據集上進一步評估了模型性能,測試使用了兩個語料庫:Wikipedia2018(與通用測試一致)和 MedCorp(ACL 2024)。結果顯示,Search-R1 在其訓練語料上表現良好,但在語料變更後顯現出過擬合趨勢;相比之下,s3 能穩定遷移至不同的數據集與語料庫,凸顯出其基於 searcher-only 優化策略的強泛化能力。

reward 優化曲線

圖 5 展示了我們的 reward 曲線,可以看出 s3 在接近 10 個訓練步驟(batch size 為 120)內便迅速「收斂」。這一現象支持兩個推斷:(1)預訓練語言模型本身已具備一定的搜索能力,我們只需通過合理的方式「激活」這種能力;(2)在一定範圍內,適當增加每輪搜索的文檔數量和最大輪次數,有助於提升最終性能。

消融實驗

在不同配置下,移除組件對性能的影響(平均準確率)。我們使用了三組設定進行對比,結果表明 s3 的設計在準確性與效率之間達到了最優平衡。

我們進一步通過消融實驗,驗證了 s3 框架中兩個關鍵設計的必要性:

總體來看,s3 設計中的「起點初始化 + 動態選擇」是支撐其高效、強泛化性能的關鍵。即使在某些數據集上通過增加輸入內容能獲得短期增益,s3 原始結構在訓練效率、推理速度與生成準確率上依然展現出更穩定的優勢。

FAQ

Q1:為什麼我們報告的 Search-R1 結果與原論文不一致?

A1:Search-R1 原文使用 Exact Match(EM)作為 reward 和評估指標,並對模型進行了針對性微調。將這種針對 EM 優化的模型,與其他 zero-shot 方法比較,略顯不公平,也難以衡量搜索本身的效果。因此我們採用更語義友好的 Generation Accuracy(GenAcc),結合 span 匹配和 LLM 判斷,與人類評估一致率達 96.4%。相比之下,EM 只能捕捉字面一致,反而容易誤導模型優化方向。

Q2:s3 為什麼不訓練生成器?這樣是否限制了模型性能?

A2:我們設計 s3 的核心理念是:如果我們想真正優化搜索效果,不應讓生成器被訓練,否則會混淆「搜索變好」與「語言模型變強」帶來的增益。凍結生成器不僅提升了訓練效率(節省大模型微調成本),也便於模型遷移到不同任務與生成器,真正做到「搜索能力即插即用」。

海量資訊、精準解讀,盡在新浪財經APP

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10