騰訊混元首款開源混合推理MoE模型發佈,性能優異,激活參數僅13B

騰訊混元
06-27

今天,我們正式帶來騰訊混元首個開源的混合推理MoE模型 “Hunyuan-A13B”,總參數80B,激活參數僅13B,效果比肩同等架構領先開源模型,但是推理速度更快,性價比更高。這意味着,開發者可以用更低門檻的方式獲得更好的模型能力。

即日起,模型已經在 Github 和 Huggingface 等開源社區上線,同時模型API也在騰訊雲官網正式上線,支持快速接入部署。

這是業界首個 13B 級別的MoE開源混合推理模型,基於先進的模型架構,Hunyuan-A13B表現出強大的通用能力,在多個業內權威數據測試集上獲得好成績,並且在Agent工具調用和長文能力上有突出表現。

*加粗爲最高分,下劃線表示第二名,數據來源於模型各個公開的測試數據集得分

對於時下熱門的大模型Agent能力,騰訊混元建設了一套多Agent數據合成框架,接入了MCP、沙箱、大語言模型模擬等多樣的環境,並且通過強化學習讓Agent在多種環境裏進行自主探索與學習,進一步提升了Hunyuan-A13B的效果。

演示視頻展示來看,Hunyuan-A13B可以根據用戶的指令,通過調用搜索、酒店、天氣等查詢工具,提供定製化的旅行行程規劃,完成深度搜索。

在數據分析場景下,模型通過調用編碼工具,完成數據分析的工作,並支持生成新的excel表格文件。

在長文方面,Hunyuan-A13B支持256K原生上下文窗口,在多個長文數據集中取得了優異的成績。

實際使用場景中,Hunyuan-A13B模型可以根據需要選擇思考模式,快思考模式提供簡潔、高效的輸出,適合追求速度和最小計算開銷的簡單任務;慢思考涉及更深、更全面的推理步驟,如反思和回溯。這種融合推理模式優化了計算資源分配,使用戶能夠通過加think/no_think切換思考模式,在效率和特定任務準確性之間取得平衡。

Hunyuan-A13B模型對個人開發者較爲友好,在嚴格條件下,只需要1張中低端GPU卡即可部署。目前,Hunyuan-A13B已經融入開源主流推理框架生態,無損支持多種量化格式,在相同輸入輸出規模上,整體吞吐是前沿開源模型的2倍以上。

Hunyuan-A13B 集合了騰訊混元在模型預訓練、後訓練等多個環節的創新技術,這些技術共同增強了其推理性能、靈活性和推理效率。

預訓練環節,Hunyuan-A13B 訓練了20T tokens的語料,覆蓋了多個領域。高質量的語料顯著提升了模型通用能力。此外,在模型架構上,騰訊混元團隊通過系統性分析,建模與驗證,構建了適用於 MoE 架構的 Scaling Law 聯合公式。這一發現完善了MoE 架構的 Scaling Law 理論體系,併爲 MoE 架構設計提供了可量化的工程化指導,也極大地提升了模型預訓練的效果。

後訓練環節,Hunyuan-A13B採用了多階段的訓練方式,提升了模型的推理能力,同時兼顧了模型創作、理解、Agent等通用能力。

圖:Hunyuan-A13B後訓練四個步驟

爲更好的提升大語言模型能力,騰訊混元也開源了兩個新的數據集,以填補行業內相關評估標準的空白。其中,ArtifactsBench用於彌合大語言模型代碼生成評估中的視覺與交互鴻溝,構建了一個包含 1825個任務的新基準,涵蓋了從網頁開發、數據可視化到交互式遊戲等九大領域,並按難度分級以全面評估模型的能力;C3-Bench針對Agent場景模型面臨的三個關鍵挑戰:規劃複雜的工具關係、處理關鍵的隱藏信息以及動態路徑決策,設計了1024條測試數據,以發現模型能力的不足。

Hunyuan-A13B模型是騰訊內部應用和調用量最大的大語言模型之一,有超過 400+ 業務用於精調或者直接調用,日均請求超1.3億。本次進行升級更新並對外開源 ,是繼混元large後混元大語言模型推出的又一重要開源模型,參數更小,但是性能和效果實現了大幅的提升。接下來,騰訊混元也將推出更多尺寸、更多特色的模型,將更多實踐技術與社區共享,促進大模型開源生態的繁榮。

騰訊混元堅定擁抱開源,持續推進多尺寸、多場景的全系模型開源,旗下圖像、視頻、3D、文本等多種模態基礎模型已全面開源。未來,混元計劃推出多尺寸混合推理模型,從0.5B到32B的dense模型,以及激活13B的MoE模型,適配企業與端側不同需求,混元圖像、視頻、3D等多模態基礎模型及配套插件模型也將持續開源。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10