全球首個混合線性架構萬億參數思考模型開源:長文本推理效率提升3倍 獲IMO金牌

快科技
02/13

快科技2月13日消息,今日,螞蟻集團開源發布全球首個基於混合線性架構的萬億參數思考模型 Ring-2.5-1T,在長文本生成、數學推理與智能體任務執行上達到開源領先水平,為智能體(Agent)時代的複雜任務處理提供高性能基礎支撐。

在生成效率上,Ring-2.5-1T在32K以上長文本生成場景中,對比上代模型訪存規模降低10倍以上,生成吞吐提升3倍以上。

在深度思考能力方面,該模型在國際數學奧林匹克競賽(IMO 2025)和中國數學奧林匹克(CMO 2025)自測均達到金牌水平(IMO 35分、CMO 105分)。

同時,可輕鬆適配Claude Code等智能體框架與OpenClaw個人AI助理,支持多步規劃與工具調用。

在多項權威基準測試中,Ring-2.5-1T 與 DeepSeek-v3.2-Thinking、Kimi-K2.5-Thinking、GPT-5.2-thinking-high、Gemini-3.0-Pro-preview-thinking-high、Claude-Opus-4.5-Extended-Thinking 等主流開源與閉源模型進行了系統對比,在數學推理、代碼生成、邏輯推理和智能體任務執行等高難場景中達到開源領先水平。尤其在深度思考(Heavy Thinking)模式下,該模型在IMOAnswerBench、HMMT-25等數學競賽推理基準和LiveCodeBench-v6代碼生成基準中超越所有對比模型,展現了強大的複雜推理與跨任務泛化能力。

據了解,Ring-2.5-1T基於Ling 2.5架構,通過優化注意力機制,顯著提升長文本推理的效率與穩定性。模型激活參數規模從前代的 51B 提升至 63B,但在混合線性注意力架構的支持下,推理效率相比上一代大幅提升。

與僅具備 32B 激活參數的KIMI K2架構相比,在1T總參數量下,Ling 2.5架構在長序列推理任務中的吞吐表現依然優勢顯著,且隨着生成長度增加,效率優勢持續擴大。

目前,Ring-2.5-1T 的模型權重與推理代碼已在Hugging Face、ModelScope等主流開源平台發布。官方平台Chat體驗頁和API服務將在近期上線。

具體開源倉庫和體驗頁面如下(可點擊前往)

Hugging Face:

https://huggingface.co/inclusionAI/Ring-2.5-1T-FP8

ModelScope:

https://modelscope.cn/models/inclusionAI/Ring-2.5-1T-FP8

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10