中昊芯英「剎那」TPU AI芯片適配百度文心開源大模型ERNIE-4.5-VL,加速多模態運算

中金在線
11小時前

近日,中昊芯英「剎那®」TPU架構AI芯片完成對百度開源多模態混合專家大模型ERNIE-4.5-VL-28B-A3B的適配與性能實測。此次適配驗證了國產TPU架構算力基座對前沿MoE模型的高效支撐能力,更開創了「國產創新芯片架構+國產開源大模型」的生態範式。

中昊芯英成立於2018年,由前谷歌TPU芯片核心研發者楊龔軼凡攜一批來自谷歌微軟三星等海外科技巨頭公司的AI軟硬件設計專家組建。公司核心團隊掌握從28nm到7nm各代製程工藝下大芯片設計與優化完整方法論,全棧式的技術梯隊覆蓋芯片設計、電路設計、軟件棧研發、系統架構、大模型算法等各類技術領域,研發人員佔比70%以上。

歷經近5年的研發,中昊芯英推出的「剎那®」TPU架構高性能AI專用算力芯片,擁有完全自主可控的IP核、全自研指令集與計算平臺。該芯片採用專為AI/ML而生的 TPU 芯片架構,在AI大模型計算場景中,算力性能超越海外著名GPU產品近1.5倍,能耗降低30%同時,通過採用Chiplet技術與2.5D封裝,實現了同等製程工藝下的性能躍升,並支持1024片芯片片間互聯,實現千卡集羣線性擴容,支撐超千億參數大模型運算需求。

此次中昊芯英「剎那®」TPUAI芯片適配的百度開源的ERNIE-4.5-VL-28B-A3B模型(以下簡稱 ERNIE-4.5-VL)是百度文心開源大模型ERNIE-4.5系列中的一款多模態MoE大模型,於2025年6月30日隨文心4.5系列一同開源。該模型總參數量為28B,激活參數量為3B,採用異構混合專家架構(MoE),在跨模態理解與生成、長文本處理等領域表現卓越,適用於智能導覽、視覺客服等多種場景。

文心4.5系列模型均基於飛槳深度學習框架進行高效訓練、推理和部署,在大語言模型的預訓練中,模型 FLOPs 利用率(MFU)達到47%。實驗結果顯示,該系列模型在多個文本和多模態基準測試中達到SOTA水平,在指令遵循、世界知識記憶、視覺理解和多模態推理任務上效果尤為突出。

在此次的技術適配方面,中昊芯英憑藉「剎那®」TPU AI芯片強大的並行處理能力,與ERNIE-4.5-VL的架構設計實現了深度融合。芯片的可重構多級存儲、近存運算設計以及流水線式的時空映射,有效提升了大模型計算速度和精度,為模型在複雜任務中的運行提供了高效支持。同時,針對ERNIE-4.5-VL的多模態特性,「剎那®」TPU芯片在處理視覺、文本等多模態數據時,展現出了出色的兼容性和運算性能。

根據實際運行效果表明,在基於「剎那®」TPU AI芯片構建的「泰則®」AI服務器上驅動運行 ERNIE-4.5-VL 模型時,性能表現與海外著名GPU產品齊平。 這一數據有力地證明,「剎那®」TPU AI芯片不僅在技術架構上具有先進性,在實際應用中同樣擁有強大的性能表現和商業價值。

除了性能數據方面,中昊芯英技術團隊還成功基於「剎那®」TPU AI 芯片運行了ERNIE- 4.5-VL的多項複雜多模態任務。例如,在古文識別任務中,模型能夠精準理解古文字體並給出相應出處典故,整個過程流暢運行,無縫銜接。這進一步佐證了在針對大模型方面,中昊芯英「剎那®」TPU AI芯片能夠為ERNIE-4.5-VL提供穩定且強大的算力基礎。無論是大規模的模型訓練,還是實時性要求較高的推理任務,「剎那®」TPU AI 芯片都能滿足需求。此外,通過與百度飛槳框架的緊密配合,進一步優化模型在芯片上的運行性能,可以更好的為開發者提供更加便捷、高效的開發環境,有助於推動大模型技術在更多領域的應用和創新。

中昊芯英創始人及CEO楊龔軼凡表示:「此次適配驗證了國產算力與模型協同創新的可行性。「剎那®」TPU AI芯片作為專為大模型設計的算力引擎,與 ERNIE-4.5-VL 的異構MoE架構形成完美互補。接下來我們將持續深化與百度的技術共研,推動從3B到424B全系列模型的硬件加速方案落地,為產業提供更高效可靠的國產自主AI基礎設施。」

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10