全球首个混合线性架构万亿参数思考模型开源:长文本推理效率提升3倍 获IMO金牌

快科技
Feb 13

快科技2月13日消息,今日,蚂蚁集团开源发布全球首个基于混合线性架构的万亿参数思考模型 Ring-2.5-1T,在长文本生成、数学推理与智能体任务执行上达到开源领先水平,为智能体(Agent)时代的复杂任务处理提供高性能基础支撑。

在生成效率上,Ring-2.5-1T在32K以上长文本生成场景中,对比上代模型访存规模降低10倍以上,生成吞吐提升3倍以上。

在深度思考能力方面,该模型在国际数学奥林匹克竞赛(IMO 2025)和中国数学奥林匹克(CMO 2025)自测均达到金牌水平(IMO 35分、CMO 105分)。

同时,可轻松适配Claude Code等智能体框架与OpenClaw个人AI助理,支持多步规划与工具调用。

在多项权威基准测试中,Ring-2.5-1T 与 DeepSeek-v3.2-Thinking、Kimi-K2.5-Thinking、GPT-5.2-thinking-high、Gemini-3.0-Pro-preview-thinking-high、Claude-Opus-4.5-Extended-Thinking 等主流开源与闭源模型进行了系统对比,在数学推理、代码生成、逻辑推理和智能体任务执行等高难场景中达到开源领先水平。尤其在深度思考(Heavy Thinking)模式下,该模型在IMOAnswerBench、HMMT-25等数学竞赛推理基准和LiveCodeBench-v6代码生成基准中超越所有对比模型,展现了强大的复杂推理与跨任务泛化能力。

据了解,Ring-2.5-1T基于Ling 2.5架构,通过优化注意力机制,显著提升长文本推理的效率与稳定性。模型激活参数规模从前代的 51B 提升至 63B,但在混合线性注意力架构的支持下,推理效率相比上一代大幅提升。

与仅具备 32B 激活参数的KIMI K2架构相比,在1T总参数量下,Ling 2.5架构在长序列推理任务中的吞吐表现依然优势显著,且随着生成长度增加,效率优势持续扩大。

目前,Ring-2.5-1T 的模型权重与推理代码已在Hugging Face、ModelScope等主流开源平台发布。官方平台Chat体验页和API服务将在近期上线。

具体开源仓库和体验页面如下(可点击前往)

Hugging Face:

https://huggingface.co/inclusionAI/Ring-2.5-1T-FP8

ModelScope:

https://modelscope.cn/models/inclusionAI/Ring-2.5-1T-FP8

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10