NEWS
2月13日晚,MiniMax正式開源了最新旗艦模型M2.5。壁仞科技(06082.HK)旗艦產品壁礪™166系列率先完成M2.5的本地化部署,成為首批完成適配的國產算力廠商。
M2.5在BR166服務器上基於vLLM壁仞平台插件完成推理補全任務
近日,國產大模型生態迎來密集重磅升級。依託壁礪™166系列產品的高通用性與全自研BIRENSUPA™軟件棧的成熟度,壁仞科技此前已極速完成對GLM-5、Step 3.5 Flash等多款SOTA頂級大模型的適配支持,大幅降低開發者的模型部署與應用門檻,有力推動Agent智能體技術的商業化落地與規模化拓展。
對SOTA模型的極速適配,進一步驗證了vLLM壁仞科技平台插件的成熟度。通過深度集成BIRENSUPA™高性能算子庫,壁仞科技可針對混合專家模型及核心注意力機制實現指令級深度優化,充分釋放壁礪系列產品算力潛能,打造兼具性能與成本優勢的極致推理方案。
此外,面向大型MoE模型稀疏激活、DSA稀疏注意力、MTP多Token預測等關鍵特性,以及超長文本的實際應用需求,壁礪™166系列產品與BIRENSUPA™軟件棧實現前瞻性協同設計。產品充分發揮Cwarp、TDA等自研架構優勢,深度打磨高性能算子與推理框架,真正實現對該類複雜模型的即刻適配。
關於MiniMax M2.5
作為定位「原生Agent(智能體)生產級模型」的產品,MiniMax M2.5在編程、工具調用和搜索、辦公等生產力場景都達到或者刷新了行業的SOTA,比如 SWE-Bench Verified(80.2%),Multi-SWE-Bench(51.3%),BrowseComp(76.3%)。
MiniMax M2.5在Agentic Engineering benchmark中取得多項SOTA成績
M2.5優化了模型對複雜任務的拆解能力和思考過程中token的消耗,使其能更快地完成複雜的Agentic任務,比如在SWE-Bench Verified的測試中,比上一個版本M2.1完成任務的速度快了37%。
M2.5是第一個不需要考慮使用成本可以無限使用的前沿模型。在每秒輸出100個token的情況下,M2.5連續工作一小時只需花費1美金;而在每秒輸出50個token的情況下,只需要0.3美金。
關於GLM-5
GLM-5是智譜新一代的旗艦基座模型,面向Agentic Engineering打造,能夠在複雜系統工程與長程Agent任務中提供可靠生產力。在Coding與Agent能力上,GLM-5取得開源SOTA表現,在真實編程場景的使用體感逼近Claude Opus 4.5,擅長複雜系統工程與長程Agent任務,是通用Agent助手的理想基座。GLM-5模型參數規模達到744B(其中激活40B),採用28.5T數據預訓練,並集成DeepSeek Sparse Attention,在部署成本和效率上進一步提升。
GLM-5在BR166服務器上基於vLLM壁仞平台插件完成推理補全任務
壁仞科技此前已經完成對MiniMaxM2.1、智譜GLM-4.7等系列旗艦大模型的適配,並持續深度優化,在模型精度和穩定性方面表現優異,充分驗證了壁礪™系列產品對國產SOTA大模型的卓越適配性。未來,壁仞科技將持續加強對包括MiniMax、智譜、階躍星辰在內的國產大模型廠商的生態適配支持,並與生態夥伴在高級智能體、項目級編程等Agentic Engineering領域共同打造「國模國芯」解決方案和示範性業務場景,助力中國AI產業向世界最先進水平持續邁進。