阿里千问3登顶,开源模型掀起产业智能化新浪潮|甲子光年

甲子光年
昨天

阿里Qwen3如何改写AI生产力格局?

作者|田思奇

编辑|栗子

当AI从实验室走向全场景应用,如何兼顾性能与成本,成为每一个开发者与企业共同的难题。

4月29日凌晨,伴随着全球互联网的猜测与期待,阿里巴巴正式开源新一代通义千问模型Qwen3(以下简称“千问3”),并同步发布了多个版本,力图改写上述困境。

这款模型以DeepSeek-R1三分之一的参数量,实现了数学、代码、多语言理解等核心能力对全球顶尖模型的全面超越,并凭借“混合推理”架构与全场景部署方案,将大模型的应用成本降至历史最低水平。

这不仅意味着中国AI首次登上全球开源模型性能巅峰,也是AI从实验室走向产业规模化落地的关键。

1.快与慢之间:千问3首次集成“混合推理”

在AI模型结构设计中,过往的竞争主要集中在“推理速度”和“推理深度”之间的取舍:要么快,要么深,但难以兼得。

作为国内首个 “混合推理模型”,千问3创造性地将 “快思考” 与 “慢思考” 集成于同一框架,如同赋予模型人类般的思维灵活性:面对简单咨询时,模型以低算力快速响应;处理复杂问题时,则可启动多步骤深度推理。这种设计不仅大幅降低算力消耗,更解决了传统模型在任务适配中的效率瓶颈。

LangGPT社区创始人云中江树对“甲子光年”表示,“混合推理”是通义千问模型更新中最大的变化。千问3问世以前,该系列的推理模型为QwQ,非推理模型是Qwen2.5, 现在推理和非推理能力合二为一。

这也预示着,AI应用将告别“一刀切”的粗放模式。在产业落地环节,它能以更智能、更经济的方式渗透到金融风控、医疗诊断等对精度要求极高的领域。

对于“千问3是否会弱化提示词价值”的问题,云中江树认为,模型本身越强,提示词能发挥的价值越高。这里的“弱化”,更多指代的是“工程”,也就是弱化提示词工程中的一些复杂、奇特的提示技巧,迭代调优的精力。

千问3背后的混合专家(MoE)架构同样功不可没。总参数量235B的千问3,实际激活仅需22B,结合36T数据预训练与多轮强化学习,实现性能飞升的同时,也将成本大幅降低。

在测试奥数水平的AIME25测评中,千问3斩获81.5分,刷新开源纪录;代码能力测试中,千问3 LiveCodeBench得分突破70分,超越Grok3;人类偏好对齐测评里,ArenaHard 95.6分的成绩更是超越OpenAI-o1及DeepSeek-R1。

为了适配不同场景需求,千问3同步开源了8款不同规模的模型版本,包括0.6B、1.7B、4B、8B、14B、32B密集模型,以及30B-A3B、235B-A22B两款MoE大模型,每款模型均斩获同尺寸开源模型SOTA(最佳性能),并在多任务处理、系统集成与模型压缩等方面做了针对性优化,使得开发者与企业用户可以根据资源条件灵活选择,快速落地各类创新应用。

以上所有千问3模型都是混合推理模型。经“甲子光年”实测,用户可按需设置“思考预算”(即预期最大深度思考的tokens数量),进行不同程度的思考,灵活满足AI应用和不同场景对性能和成本的多样需求。 

这一布局,为AI从“能用”到“好用”的过程提供了关键支撑——模型不仅要算得准,还应以更低的成本部署到更多真实场景之中。

2.产业智能化,从千问3开始

技术创新的终极目标是服务产业。当千问3以突破性的架构刷新开源模型性能天花板后,其多版本、低成本的特性,也将成为撬动各行业智能化转型的支点。

具体来看,千问3的不同版本将分别适配于不同场景,尤其对手机、智能眼镜、智能驾驶、人形机器人等智能设备和场景的部署更为友好。

  • 小型模型(0.6B/1.7B):适合学术探索与轻量级移动应用;

  • 中型模型(4B/8B):适配笔记本电脑、车载系统等端侧部署;

  • 大型模型(14B/32B):服务于企业级部署与高性能推理任务;

  • MoE模型(30B-A3B/235B-A22B):面向云端服务与大型本地部署,兼顾极致性能与极高推理效率。

此外,传统印象中,顶级大模型部署动辄需要上千万元的硬件投入,而千问3打破了这一魔咒。

以其最大规模的235B-A22B模型为例,在典型部署环境下,仅需4张H20显卡即可满血运行,整体部署成本仅为同期满血版DeepSeek-R1的25%至35%。

简而言之,几十万元的预算,就可以拥有全球最强开源大模型的推理与服务能力。

在成本控制上,千问3的API“思考预算” 设置堪称点睛之笔。开发者可根据任务复杂度动态调整推理深度,在性能与成本间自由权衡。结合MoE架构的低部署成本,即使中小企业也能以较低门槛接入顶尖AI能力,加速行业智能化转型。

云中江树对“甲子光年”表示,相比DeepSeek、Llama模型来说,千问3具有丰富的谱系选择,能够更好的支持全场景的落地应用需求。

同时,千问3所有模型均在Apache2.0许可下开源,是非常宽松的开源协议,不但允许商业使用,还允许修改和分发代码,不需要分享修改后的源代码。并且Apache 2.0的法律全面性、专利保护更好,是大型企业开源的常用选择。

更值得关注的是,千问3原生支持MCP协议,并通过Qwen-Agent框架降低智能体开发门槛。

在BFCL评测中,Qwen3以70.8分超越Gemini2.5-Pro等模型,证明其在智能体工具调用上的领先优势。这意味着开发者可基于MCP协议,快速构建手机助手、办公机器人等智能体应用,为即将爆发的Agent生态提供核心技术支撑。

MCP协议如同智能体的“通用语言”,而Qwen-Agent框架则是“翻译器”与“工具箱”。两者结合,使得开发者只需通过简单配置,就能将千问3的能力快速转化为智能客服、智能办公等场景应用,开发周期大幅缩短。

总结来看,千问3向产业提供了“人人可用、处处能跑”的全新范式,必将推动AI真正走出技术象牙塔,奔赴产业最前线。

3.3800亿元豪赌:AI重估阿里云

技术能力之外,千问3的发布,也标志着阿里云向全球AI中枢的战略转型全面提速。

千问3的开源,无疑是阿里通义千问开源战略的又一里程碑。自2023年起,阿里已开源200余个模型,全球下载量超3亿次,千问衍生模型突破10万个,超越Llama成为全球第一开源模型家族;支持119种语言的千问3,更打破语言壁垒,为缺乏自研能力的国家和地区提供了全球顶尖的AI模型能力。

时至今日,通义千问Qwen在全球下载量超过3亿,在HuggingFace社区2024年全球模型下载量中千问Qwen占比超30%,稳居第一。在2025年2月的Huggingface全球开源大模型榜单(Open LLM Leaderboard)中,排名前十的开源模型全部都是基于千问Qwen二次开发的衍生模型。

在李飞飞领衔的斯坦福HAI研究所发布的《2025年人工智能指数报告》显示,2024年重要大模型(Notable Models)中,阿里入选6个,按照模型贡献度排名,阿里AI贡献位列全球第三

“甲子光年”观察到,全球AI产业已从单点突破、封闭竞争,转向开放协作、平台化竞争。开源大模型成为构建开放生态、抢占行业标准制高点的关键。千问3以其领先的性能、完善的产品线和极致的成本优势,为阿里巴巴在AI生态系统建设中,提供了强有力的技术底座。

上线开源数小时后,华为已宣布升腾支持千问3全系列模型部署,开发者在MindSpeed和MindIE中开箱即用,实现千问3的0Day适配。英伟达英特尔、联发科、AMD等多家头部芯片厂商已成功适配千问3,在不同硬件平台和软件栈上的推理效率均显著提升,可满足移动终端和数据中心场景的AI推理需求。

在技术生态建设上,就在不久之前,阿里云百炼刚刚上线业界首个全生命周期MCP服务,无需用户管理资源、开发部署、工程运维等工作,5分钟即可快速搭建一个连接MCP服务的Agent(智能体)。中国第一AI开源社区魔搭更是上线了国内最大的中文MCP广场,支付宝、MiniMax等MCP服务首发魔搭。

今年2月,阿里巴巴集团CEO吴泳铭还刚刚宣布,未来三年,阿里将投入超过3800亿元,用于建设云和AI硬件基础设施。由此,阿里从算力基建,到模型研发,再到应用落地的全链条布局逐步清晰——不仅是要从电商巨头向智能服务提供商迈进,更要成为全球AI技术领导者。

如今的阿里,也将凭借千问3的技术优势与开源生态,重新定义自身价值。在AI重估浪潮下,其全球竞争力已不仅限于云计算资源,更在于通过技术创新驱动产业升级的能力。随着夸克、通义 APP 等业务全面接入千问3,一个以阿里云为核心的智能生态正在成型,而这或许只是阿里主导新一轮AI产业周期的起点。

更重要的是,人工智能将不再是少数巨头的专属技术,而是每一位开发者、每一家企业、每一个普通用户都能触手可及的创新力量。

未来两到三年,我们一定能见证AI原生应用的爆发式增长,人工智能成为个人生产力工具的标配,同时企业智能化加速,形成“千企千面”的智能运营新格局。

全球AI创新的新一轮浪潮,正在以一种更开放、更协同的方式展开。

(封面图和文中图片来自通义千问)

海量资讯、精准解读,尽在新浪财经APP

免责声明:投资有风险,本文并非投资建议,以上内容不应被视为任何金融产品的购买或出售要约、建议或邀请,作者或其他用户的任何相关讨论、评论或帖子也不应被视为此类内容。本文仅供一般参考,不考虑您的个人投资目标、财务状况或需求。TTM对信息的准确性和完整性不承担任何责任或保证,投资者应自行研究并在投资前寻求专业建议。

热议股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10