阿里Qwen3如何改寫AI生產力格局?
作者|田思奇
編輯|栗子
當AI從實驗室走向全場景應用,如何兼顧性能與成本,成爲每一個開發者與企業共同的難題。
4月29日凌晨,伴隨着全球互聯網的猜測與期待,阿里巴巴正式開源新一代通義千問模型Qwen3(以下簡稱“千問3”),並同步發佈了多個版本,力圖改寫上述困境。
這款模型以DeepSeek-R1三分之一的參數量,實現了數學、代碼、多語言理解等核心能力對全球頂尖模型的全面超越,並憑藉“混合推理”架構與全場景部署方案,將大模型的應用成本降至歷史最低水平。
這不僅意味着中國AI首次登上全球開源模型性能巔峯,也是AI從實驗室走向產業規模化落地的關鍵。
1.快與慢之間:千問3首次集成“混合推理”
在AI模型結構設計中,過往的競爭主要集中在“推理速度”和“推理深度”之間的取捨:要麼快,要麼深,但難以兼得。
作爲國內首個 “混合推理模型”,千問3創造性地將 “快思考” 與 “慢思考” 集成於同一框架,如同賦予模型人類般的思維靈活性:面對簡單諮詢時,模型以低算力快速響應;處理複雜問題時,則可啓動多步驟深度推理。這種設計不僅大幅降低算力消耗,更解決了傳統模型在任務適配中的效率瓶頸。
LangGPT社區創始人云中江樹對“甲子光年”表示,“混合推理”是通義千問模型更新中最大的變化。千問3問世以前,該系列的推理模型爲QwQ,非推理模型是Qwen2.5, 現在推理和非推理能力合二爲一。
這也預示着,AI應用將告別“一刀切”的粗放模式。在產業落地環節,它能以更智能、更經濟的方式滲透到金融風控、醫療診斷等對精度要求極高的領域。
對於“千問3是否會弱化提示詞價值”的問題,雲中江樹認爲,模型本身越強,提示詞能發揮的價值越高。這裏的“弱化”,更多指代的是“工程”,也就是弱化提示詞工程中的一些複雜、奇特的提示技巧,迭代調優的精力。
千問3背後的混合專家(MoE)架構同樣功不可沒。總參數量235B的千問3,實際激活僅需22B,結合36T數據預訓練與多輪強化學習,實現性能飛昇的同時,也將成本大幅降低。
在測試奧數水平的AIME25測評中,千問3斬獲81.5分,刷新開源紀錄;代碼能力測試中,千問3 LiveCodeBench得分突破70分,超越Grok3;人類偏好對齊測評裏,ArenaHard 95.6分的成績更是超越OpenAI-o1及DeepSeek-R1。
爲了適配不同場景需求,千問3同步開源了8款不同規模的模型版本,包括0.6B、1.7B、4B、8B、14B、32B密集模型,以及30B-A3B、235B-A22B兩款MoE大模型,每款模型均斬獲同尺寸開源模型SOTA(最佳性能),並在多任務處理、系統集成與模型壓縮等方面做了針對性優化,使得開發者與企業用戶可以根據資源條件靈活選擇,快速落地各類創新應用。
以上所有千問3模型都是混合推理模型。經“甲子光年”實測,用戶可按需設置“思考預算”(即預期最大深度思考的tokens數量),進行不同程度的思考,靈活滿足AI應用和不同場景對性能和成本的多樣需求。
這一佈局,爲AI從“能用”到“好用”的過程提供了關鍵支撐——模型不僅要算得準,還應以更低的成本部署到更多真實場景之中。
2.產業智能化,從千問3開始
技術創新的終極目標是服務產業。當千問3以突破性的架構刷新開源模型性能天花板後,其多版本、低成本的特性,也將成爲撬動各行業智能化轉型的支點。
具體來看,千問3的不同版本將分別適配於不同場景,尤其對手機、智能眼鏡、智能駕駛、人形機器人等智能設備和場景的部署更爲友好。
小型模型(0.6B/1.7B):適合學術探索與輕量級移動應用;
中型模型(4B/8B):適配筆記本電腦、車載系統等端側部署;
大型模型(14B/32B):服務於企業級部署與高性能推理任務;
MoE模型(30B-A3B/235B-A22B):面向雲端服務與大型本地部署,兼顧極致性能與極高推理效率。
此外,傳統印象中,頂級大模型部署動輒需要上千萬元的硬件投入,而千問3打破了這一魔咒。
以其最大規模的235B-A22B模型爲例,在典型部署環境下,僅需4張H20顯卡即可滿血運行,整體部署成本僅爲同期滿血版DeepSeek-R1的25%至35%。
簡而言之,幾十萬元的預算,就可以擁有全球最強開源大模型的推理與服務能力。
在成本控制上,千問3的API“思考預算” 設置堪稱點睛之筆。開發者可根據任務複雜度動態調整推理深度,在性能與成本間自由權衡。結合MoE架構的低部署成本,即使中小企業也能以較低門檻接入頂尖AI能力,加速行業智能化轉型。
雲中江樹對“甲子光年”表示,相比DeepSeek、Llama模型來說,千問3具有更豐富的譜系選擇,能夠更好的支持全場景的落地應用需求。
同時,千問3所有模型均在Apache2.0許可下開源,是非常寬鬆的開源協議,不但允許商業使用,還允許修改和分發代碼,不需要分享修改後的源代碼。並且Apache 2.0的法律全面性、專利保護更好,是大型企業開源的常用選擇。
更值得關注的是,千問3原生支持MCP協議,並通過Qwen-Agent框架降低智能體開發門檻。
在BFCL評測中,Qwen3以70.8分超越Gemini2.5-Pro等模型,證明其在智能體工具調用上的領先優勢。這意味着開發者可基於MCP協議,快速構建手機助手、辦公機器人等智能體應用,爲即將爆發的Agent生態提供核心技術支撐。
MCP協議如同智能體的“通用語言”,而Qwen-Agent框架則是“翻譯器”與“工具箱”。兩者結合,使得開發者只需通過簡單配置,就能將千問3的能力快速轉化爲智能客服、智能辦公等場景應用,開發週期大幅縮短。
總結來看,千問3向產業提供了“人人可用、處處能跑”的全新範式,必將推動AI真正走出技術象牙塔,奔赴產業最前線。
3.3800億元豪賭:AI重估阿里雲
技術能力之外,千問3的發佈,也標誌着阿里雲向全球AI中樞的戰略轉型全面提速。
千問3的開源,無疑是阿里通義千問開源戰略的又一里程碑。自2023年起,阿里已開源200餘個模型,全球下載量超3億次,千問衍生模型突破10萬個,超越Llama成爲全球第一開源模型家族;支持119種語言的千問3,更打破語言壁壘,爲缺乏自研能力的國家和地區提供了全球頂尖的AI模型能力。
時至今日,通義千問Qwen在全球下載量超過3億,在HuggingFace社區2024年全球模型下載量中千問Qwen佔比超30%,穩居第一。在2025年2月的Huggingface全球開源大模型榜單(Open LLM Leaderboard)中,排名前十的開源模型全部都是基於千問Qwen二次開發的衍生模型。
在李飛飛領銜的斯坦福HAI研究所發佈的《2025年人工智能指數報告》顯示,2024年重要大模型(Notable Models)中,阿里入選6個,按照模型貢獻度排名,阿里AI貢獻位列全球第三。
“甲子光年”觀察到,全球AI產業已從單點突破、封閉競爭,轉向開放協作、平臺化競爭。開源大模型成爲構建開放生態、搶佔行業標準制高點的關鍵。千問3以其領先的性能、完善的產品線和極致的成本優勢,爲阿里巴巴在AI生態系統建設中,提供了強有力的技術底座。
上線開源數小時後,華爲已宣佈升騰支持千問3全系列模型部署,開發者在MindSpeed和MindIE中開箱即用,實現千問3的0Day適配。英偉達、英特爾、聯發科、AMD等多家頭部芯片廠商已成功適配千問3,在不同硬件平臺和軟件棧上的推理效率均顯著提升,可滿足移動終端和數據中心場景的AI推理需求。
在技術生態建設上,就在不久之前,阿里雲百鍊剛剛上線業界首個全生命週期MCP服務,無需用戶管理資源、開發部署、工程運維等工作,5分鐘即可快速搭建一個連接MCP服務的Agent(智能體)。中國第一AI開源社區魔搭更是上線了國內最大的中文MCP廣場,支付寶、MiniMax等MCP服務首發魔搭。
今年2月,阿里巴巴集團CEO吳泳銘還剛剛宣佈,未來三年,阿里將投入超過3800億元,用於建設雲和AI硬件基礎設施。由此,阿里從算力基建,到模型研發,再到應用落地的全鏈條佈局逐步清晰——不僅是要從電商巨頭向智能服務提供商邁進,更要成爲全球AI技術領導者。
如今的阿里,也將憑藉千問3的技術優勢與開源生態,重新定義自身價值。在AI重估浪潮下,其全球競爭力已不僅限於雲計算資源,更在於通過技術創新驅動產業升級的能力。隨着夸克、通義 APP 等業務全面接入千問3,一個以阿里云爲核心的智能生態正在成型,而這或許只是阿里主導新一輪AI產業週期的起點。
更重要的是,人工智能將不再是少數巨頭的專屬技術,而是每一位開發者、每一家企業、每一個普通用戶都能觸手可及的創新力量。
未來兩到三年,我們一定能見證AI原生應用的爆發式增長,人工智能成爲個人生產力工具的標配,同時企業智能化加速,形成“千企千面”的智能運營新格局。
全球AI創新的新一輪浪潮,正在以一種更開放、更協同的方式展開。
(封面圖和文中圖片來自通義千問)
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。