對話聯想ISG黃山:異構算力融合將成為AI應用落地的關鍵丨ToB產業觀察

市場資訊
08/19

  炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!

(來源:鈦媒體APP)

2025年以來,生成式AI的風潮已經從卷技術,逐漸走向卷應用、但大半年過去了,各行業雖然有不少應用場景出現,但距離企業級AI應用的“iPhone時刻”似乎又離的很遠。

究其原因,一方面是企業內部訓練、微調大模型的數據量遠遠不夠;另一方面,在算力利用率、異構多元算力融合方面,行業仍有一段路要走。

智算行業興起

自從ChatGPT問世之後,生成式AI成爲了全球科技圈熱議的焦點,而作爲生成式AI底層支撐的智能算力,也迎來了快速增長的時代。據工信部數據顯示,截至 2025 年一季度,中國智算規模已達到 748EFlops,佔整體算力規模的 35%,智算已經成爲算力增長的核心驅動力

無獨有偶,IDC也十分看好中國智算產業發展,IDC數據顯示,2025年,中國智能算力規模將達到1037.3EFLOPS,預計2028年將達到2781.9EFLOPS;中國通用算力規模將達到85.8EFLOPS,預計2028年將達到140.1EFLOPS,對此,IDC中國副總裁周震剛曾告訴筆者,從增加趨勢上分析,2023-2028年,中國智能算力五年年複合增長率預計將達到46.2%,通用算力預計將達到18.8%,預計到2028年,中國智能算力規模將達到2781.9EFLOPS,是2024年的近四倍。

從數據上不難看出,目前,用戶對於算力的需求,絕大部分的增量將產生在智能算力方面。

從服務器出貨量角度,也可以看出目前智算已經成爲算力產業發展的主流趨勢。據IDC數據顯示,2024年全球人工智能服務器市場規模爲1251億美元,2025年將增至1587億美元,2028年有望達到2227億美元,其中生成式人工智能服務器佔比將從2025年的29.6%提升至2028年的37.7%。

而龐大的需求主要來自生成式AI技術和應用的爆發,僅2024上半年,中國GenAI IaaS市場同比增長203.6%,市場規模達52億元人民幣,佔比整體智算服務市場35.6%。

當生成式AI的技術逐漸成熟,業內也在逐漸從“卷”模型技術,向着“卷”AI應用的方向出發。在此趨勢下,大模型技術的演進也隨之從預訓練側,向着推理側、後訓練側發展。對此,聯想中國基礎設施業務羣戰略管理總監黃山表示,行業的算力需求從預訓練主導轉向了後訓練和推理主導。

此外,在應用層面,AI已經開始對企業流程進行智能化改造,尤其是在DeepSeek問世之後,諸如醫療、生物科學、交通等領域的垂類應用不斷湧現,在應用側對於後訓練、推理的要求會更高,“對於算力產業而言,從應用層到算力層都發生了很大的變化,”黃山進一步指出,“在變化的過程中,應用層、模型層、算力層軟件之間的相互影響很大。”

這種相互作用的影響也推動了智算產業的變革,一方面,智算在自己的“賽道”內不斷向前發展;另一方面,智算的發展並非孤立存在,智算與超算、通算之間實現“超智融合”也成爲當前算力產業發展的關鍵。

超智融合是關鍵

從宏觀維度看,超智融合不僅能夠充分發揮各類算力的優勢,實現資源的高效利用,更能爲解決複雜的科學問題、推動產業升級提供強大支撐。

超算與智算、傳統數據中心之間最大的差別是應用場景不同。超算主要應用於大規模科學計算、工程仿真、氣象預報、生物信息等領域,這些應用需要處理海量數據和高複雜度計算,對計算性能要求極高。

智算則主要應用於人工智能、機器學習、圖像處理、語音識別等領域,這些應用需要快速迭代和優化模型,對計算效率要求較高。而相較於超算、智算而言,傳統數據中心的應用則更加廣泛,包括雲計算、大數據分析、企業級應用等。

而超算、智算、通算的融合,也成爲了整個算力產業接下來很長一段時間發展的重點方向。具體來看,在算力方面,超智融合可以提升算力效率,降低能耗成本。通過實現超智融合,可根據具體任務需求靈活調度算力資源,避免資源浪費。例如,在氣象預測中,超算提供高性能計算支持複雜模型的模擬,智算進行數據分析和結果優化,通算處理日常業務數據,三者協同提升效率。

在應用方面,超智融合可以推動科學研究與產業創新,爲解決複雜的科學問題提供了強大工具。例如,國家超級計算無錫中心的超智融合算力平臺系統,爲新藥研發、企業級智能增強系統等提供全棧智能應用計算解決方案。在產業領域,超智融合助力製造業智能化升級。三一重工通過整合通算、智算和超算資源,實現了生產流程的數字化和智能化,產能提升 123%,人員效率提升 98%,單位制造成本降低 29%。

對此,黃山也向筆者介紹了一些聯想在超智融合方面的經驗和案例,他表示,在聯想與北京大學的合作中,雙方共同建設了高性能計算平臺,平臺以聯想開發的模型爲底座,採用聯想深騰X8810系統,並配置聯想數據中心採用的英特爾至強鉑金處理器,爲各學科領域提供大規模數據處理和大規模科學計算的支持。

“以生命科學研究場景爲例,原先需要15分鐘才能完成的核磁共振影像結果,通過該平臺的加持,現在僅需20秒左右就能完成。”黃山介紹道。

此外,在與吉利汽車的合作中,聯想和英特爾共同爲吉利打造了一套HPC集羣化解決方案。該方案通過聯想萬全異構智算平臺HPC版和英特爾五代至強可擴展處理器,對“星睿智算HPC集羣”進行升級,提升了研發效率,縮短了產品迭代週期。“在多達5000個CPU的仿真集羣中,通過異構算力平臺,融合HPC與智算的能力,”黃山進一步指出,“目前,該方案已經落地了超過19種仿真應用。”

異構算力融合仍面臨挑戰

超算與智算的融合首先體現在硬件架構的深度重構。傳統超算以 CPU 爲核心,側重雙精度浮點運算(FP64),而智算依賴 GPU/TPU 等加速芯片,聚焦半精度(FP16)和整數運算(INT8)。兩者的硬件架構和計算範式存在本質差異。這種架構差異在AI for Science場景中形成瓶頸,比如,蛋白質結構預測需要同時處理高精度分子模擬與數據驅動的模型優化。

除此之外,超算的“時間複雜度”與智算的“空間複雜度”難以兼容。融合需從芯片設計、存儲網絡到算法層面實現軟硬協同創新,例如通過動態異構資源池化技術解決算力調度問題。所以超智融合目前來看仍是一個比較棘手的問題。

對此,黃山指出,超算與智算的融合,目前還存在一些難點,主要是因爲兩種計算模式下,算力調度機制不同,融合調度機制將成爲接下來實現超智融合過程中,最需要首先解決的問題。

除此之外,黃山告訴筆者,算法也是實現超算與智算融合發展的一大掣肘,“因爲超算與智算的算法也完全不同,在計算過程中,如何將雙方的計算結果結合在一起,進而進行融合計算,也是實現超智融合的難點之一。”黃山強調道。

而面對超算、智算、通算融合難題,平臺化的解決方案似乎成爲了當前狀態下的最優解。以聯想爲例,其通過 “一橫五縱” 戰略框架構建了覆蓋通用、科學、AI 算力的異構智算平臺——萬全異構智算平臺。黃山表示,萬全異構智算平臺是聯想AI方案的整體抓手,通過智算與HPC計算硬件方面多年的積累,再加上對於軟硬協同方面的行業Know-How,提高了算力的利用率,並優化了軟硬件之間的適配度,向上支持模型應用,向下融合異構算力。

在軟件層面,聯想通過萬全異構智算平臺3.0實現HPC與AI框架的無縫銜接。其AI編譯優化器採用算子融合與路徑優化技術,降低訓練與推理成本各15%以上;專家並行通信算法針對MoE架構通信瓶頸,通過計算通信協同優化將推理時延降低三倍,網絡帶寬利用率達90%。

在硬件層面,聯想通過萬全異構智算平臺持續拓展與國內外知名合作伙伴的長期合作。資料顯示,萬全異構智算平臺3.0已實現了對大多數國內芯片實現了兼容,兼容後較傳統CPU集羣提速15倍。

在模型層面,萬全異構智算平臺已經接入了包括DeepSeek在內的,目前市面上主流的開源大模型,並且可以針對MoE、LLM等不同架構的模型,提供想對應的適配與優化。正如黃山前文所述——萬全異構智算平臺已經成爲聯想集團在企業級AI落地方面的核心抓手。

而在異構算力平臺及整合大模型能力平臺方面佈局不僅是聯想獨有的佈局,從市面上常見的軟硬件服務商的佈局可以看出,平臺化的軟件產品的與硬件的結合,是當下提升硬件易用性的最優解,圍繞此,神州數碼推出了神州文學平臺、浪潮信息推出了EPAI平臺、青雲科技推出了AI智算平臺.......

綜合來看,通過平臺化的產品和生態的構建,推進超算、智算,以及通算融合已經是大勢所趨,而超算、智算、通算的融合不僅是技術路徑的選擇,更是AI時代的必經之路。通過硬件異構化、軟件協同化、網絡泛在化的技術突破,以及科研、工業、醫療等領域的深度應用,超智融合正在重構計算範式,推動生產力躍升。

未來,隨着內生智能計算系統的成熟,超算與智算的界限將徹底模糊,形成 “超級智能計算” 新形態,開啓人類認知與創新的新紀元。

(本文首發於鈦媒體APP,作者|張申宇,編輯丨蓋虹達)

海量資訊、精準解讀,盡在新浪財經APP

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10