中信證券:大模型密集迭代升級 關注模型原廠、AI應用、AI基礎設施方向機遇

智通財經
04/01

智通財經APP獲悉,中信證券發布研報稱,2026年以來,國產大模型廠商聚焦Agent及代碼能力升級,競相發布新模型。即將發布的DeepSeek下一代新模型有望延續高性價比開源模型路線,在能力上實現更強記憶功能與超長上下文處理,精進代碼、Agent能力的同時並補齊多模態短板,帶來模型原廠、AI應用、AI基礎設施方向的新投資機遇,該行建議關注這三條投資主線。

1)模型原廠:DeepSeek新一代模型有望與其他國產模型攜手,驅動中國AI加速走向世界,同時模型訓推進一步降本,更廉價的tokens驅動全球大模型API調用量整體增加。

2)AI應用:模型平權有助於緩解市場對於模型與應用矛盾敘事帶來的焦慮,助力千行百業AI Agent落地,利好有壁壘的AI應用公司;

3)AI基礎設施:降本帶來用量增長使AI Infra受益,國產AI Infra與國產模型相向而行。

中信證券主要觀點如下:

代碼、Agent、原生多模態:全球大模型的升級方向。

AI編程領域,訓練框架升級、採用完整代碼倉庫及工程軌跡作為訓練數據、引入多步執行與自我修復的更深思維鏈,造就了AI Coding從代碼補齊工具走到項目級別自主智能體,Harness Engineer有望促使技術人員定位從代碼工程師走向使AI發揮最大效能的Agent管理者。多Agent集群領域,現象級產品OpenClaw充分展現多Agent系統潛力,智譜、MiniMax、騰訊、Kimi等國內廠商均推出了「類龍蝦」產品,釋放數字員工生產力。原生多模態領域,原生多模態架構已成主流方向,混合嵌入編碼快速突破,國內模型在實時音視頻交互以及跨模態連續推理等關鍵環節仍亟待突破。

國產大模型:密集迭代升級,能力持續突破。

1)MiniMax(00100):代碼能力進一步升級,M2.7 SWE-Pro測試得分56.22%,超越Gemini 3.1 Pro;在實現端到端完整項目交付場景VIBE-Pro測試中得分55.6%,比肩Claude Opus 4.6,對軟件系統的運行邏輯理解進一步增強。同時M2系列模型在RL等場景參與M2.7訓練過程,實現模型自我迭代。

2)智譜(02513):GLM-5引入DSA並自研「Slime」架構,能夠以極少的人工干預自主完成Agentic長程規劃與執行、後端重構和深度調試等系統工程任務,在工具調用和多步驟任務執行(MCP-Atlas 67.8%)、聯網檢索與信息理解(Browse Comp 89.7%)能力接近甚至超過海外領先模型水平。

3)Kimi:Kimi 2.5引入了視覺能力自動拆解交互邏輯、復現代碼,新推出Agent集群模式,在HLE-Full、BrowseComp、DeepSearchQA等智能體應用測試集中得到對標GPT-5.2、Claude 4.5 Opus、Gemini 3 Pro的分數,Moonshoot採用降價策略,API價格相比K2 Turbo定價降低30%以上。

4)小米(01810):Xiaomi MiMo-V2-Pro在ClawEval、t2-bench等衡量模型Agent調用能力的測試集中接近甚至領先部分海外頭部模型,其早期內部測試版本以Hunter Alpha 的匿名代號上線OpenRouter,上線期間多天登頂調用量日榜。該行看好大模型底座賦能小米人車家全生態,實現AI能力躍升。

DeepSeek展望:延續高性價比路線,精進長文本、代碼、Agent、多模態能力。

DeepSeek在26年1月發布的DeepSeek V3.2採用稀疏注意力(DSA)+混合專家(MoE)架構,實現訓練、推理的提效降本,輸入/輸出token定價分別下降60%/75%,同時代碼、多Agent能力BenchMark得分顯著提升。結合DeepSeek模型進化方向及梁文峯參與署名的Engram模塊論文,該行認為DeepSeek V4.0等新一代模型有望將Engram融入已成熟的DSA+MoE架構,通過分層存儲關鍵常用信息實現Transformer架構中注意力層計算量的指數級下降,進而實現超長上下文處理,提升模型效率的同時精進代碼、Agent能力,補齊多模態短板。

風險因素:

AI核心技術發展、應用拓展不及預期,算力降本不及預期,AI被不當使用造成嚴重社會影響,數據安全風險,信息安全風險,行業競爭加劇。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10