雲工場科技:打造AMD智算集群,聯動沐曦股份完善長三角算力佈局

中金財經
昨天

  4月15日,沐曦股份長三角生態創新中心暨國產算力集群項目落戶無錫高新區(以下簡稱「創新中心」),而不久前,沐曦股份與雲工場科技(02512.HK)控股子公司無錫雲展信息技術有限公司(以下簡稱「雲展信息」)、無錫國家高新技術產業開發區管理委員會共同簽署合作協議,創新中心則是合作中的重要一環。據悉,此次合作是國產GPU產業規模化落地的關鍵突破,更是地方產業升級與國家算力戰略深度融合的重要實踐,將進一步完善國產算力產業鏈佈局,激活長三角地區數字經濟發展動能,為我國智能算力基礎設施自主可控發展注入新活力。    共建GPU產業生態作為國產高性能通用GPU領域的領軍企業,沐曦股份與雲展信息的攜手,本質是技術優勢與運營能力的精準互補,更是響應國家算力戰略、破解行業痛點的必然選擇。從合作原因來看,雙方的核心訴求高度契合且優勢互補——沐曦股份成立於2020年,是國內少數實現GPU全棧自研的企業,其曦雲C系列GPU產品具備全國產、高性能、大顯存、生態易用等核心優勢,完全契合國家五部委關於計算芯片的發展要求,但亟須專業的算力平台運營夥伴,實現技術成果的規模化落地與場景化應用;作為雲工場科技控股子公司,無錫雲展深耕信息技術服務與雲計算裝備服務領域,依託母公司的算力調度與平台運營能力,在系統集成、算力集群建設與運營方面積澱深厚,能夠為沐曦股份的GPU技術提供完善的落地載體與市場渠道。同時,藉助無錫高新區的產業優勢,實現資源整合與協同發展。從合作目的來看,雙方致力於完善「技術研發+平台運營+生態培育」的完美閉環。根據合作協議內容,雙方聯合投資約25億元搭建國產萬卡算力集群,其中固定資產投資約20億元,建成後有望成為江蘇首個全國產萬卡級人工智能計算中心,滿足長三角地區人工智能、工業製造、金融、醫療等行業的多樣化算力需求。此外,作為其長三角區域總部,創新中心將承擔國產GPU生態培育、技術支持、市場推廣和人才培訓等核心職能,助力國產算力產業鏈集聚發展。更為重要的是,雙方還將依託該項目,推動國產GPU與行業應用的深度適配,加速國產算力從「可用」向「好用」的跨越,破解國內算力供給緊張與生態壟斷的雙重痛點。AMD集群助力國產GPU加速落地當前,全球GPU市場呈現「國際主導、國產突圍」的並行發展格局,國際GPU巨頭憑藉技術積累與生態優勢佔據主導地位,而國產GPU企業在政策扶持與技術創新下加速崛起,形成雙軌並行、多元互補的產業態勢。據統計,2025年全球GPU市場規模約達1046億美元,其中英偉、AMD等佔據絕對份額,而國產GPU企業正加速突圍。在此背景下,雲工場科技建設全國最大的AMD算力集群,依託AMD芯片的技術優勢,為市場提供多元化、高性價比的算力解決方案,同時與國產GPU形成協同互補,完善算力供給體系。    據悉,去年12月底,雲工場科技同樣通過合作建造新威智算中心,該中心致力於建設全國首個、規模領先的AMD ROCm on Radeon開源生態智算中心,並已在無錫馬山算力島完成首期部署,標誌着國內算力基礎設施在多元化、開放化路徑上邁出關鍵一步。項目第一期完成建設基於AMD Radeon系列算力芯片的5000卡智算集群,通過智能計算中心提供可商用的智能計算服務,推動人工智能上下游產業在無錫的集聚發展。可以認為,雲工場科技的AMD佈局,既是對國際GPU技術的合理借鑑與高效應用,也是對國產GPU發展的有力支撐。在國際GPU巨頭壟斷核心技術的背景下,AMD的開源生態為國內企業提供了除傳統閉源生態之外的供應鏈第二選擇,通過多元化的硬件架構佈局,有效降低單一供應源風險,保障企業算力持續供給。以此次合作為例,雲工場科技通過AMD相關業務積累的算力運營經驗、場景適配能力,能夠為沐曦股份等國產GPU企業提供技術參考與生態支持,加速國產GPU的場景化落地與生態成熟。這種「國際並行、國產突破」的佈局,既符合當前全球算力生態的發展趨勢,也為我國算力產業高質量發展提供了可借鑑的路徑。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10