英特爾鋭炫多卡方案亮相灣芯展:AI 部署高效精準更便捷

IT之家
10/17

10 月 16 日,英特爾在深圳舉辦的灣區半導體大會上發表了題為《英特爾銳炫多卡方案助陣 AI 應用落地部署》的演講,從 AI 產業發展趨勢、模型演進特點,到英特爾銳炫系列產品佈局,完整呈現了企業 AI 部署的「英特爾路徑」。

本次大會作為重要的技術落地與產業對接的平臺,英特爾攜 AI 算力創新方案重磅亮相,不僅帶來了針對企業 AI 部署痛點的突破性技術,更通過具體產品與場景化方案,展現了其助力企業將 AI 潛力轉化為實際生產力的決心,引發行業廣泛關注。

英特爾中國區顯卡和 AI 高級產品總監徐金平在「AI 芯片與智算產業發展高峯論壇」上指出,當前 AI 已從感知 AI、生成式 AI 邁向智能體 AI 與物理 AI 階段,模型參數從 AlexNet 的 6000 萬增長至 Kimi K2 的 1 萬億以上,企業既面臨大模型商用的機遇,也受限於傳統算力架構的性能、能耗與成本瓶頸。

針對行業痛點,英特爾提出「通過打造基於英特爾銳炫多卡的 Battlematrix 推理工作站平臺,為從邊緣、工作站到服務器的廣泛應用場景,提供高效且極具成本效益的 AI 部署方案」,這一核心思路成為整場演講的亮點。

他還強調,「物理 AI 是這一波 AI 發展的‘北極星’」「24G 顯存的顯卡做 AI 會被看成是主流顯卡中比較甜品的型號」,這些觀點既點明瞭行業趨勢,也精準定位了英特爾產品的核心優勢。

BattleMatrix 戰鬥陣列銳炫多卡方案揭祕,多卡組合靈活應對中小企業 AI 部署需求

作為英特爾本次推出的核心解決方案,BattleMatrix(戰鬥陣列)推理工作站平臺旨在突破單 GPU 的算力與顯存瓶頸,為企業提供「硬件 + 軟件」一體化的 AI 推理支持。

該方案的核心硬件依託英特爾銳炫 Pro B60 GPU,這款顯卡專為 AI 推理設計,24GB 大顯存與 456GB/s 高內存帶寬可輕鬆應對大參數模型的流暢運行,197 TOPS 的峯值算力則為複雜推理任務提供充足動力 —— 正是這些硬件特性,讓其在Windows PC 單卡測試中,對 9 個需 16GB 以上顯存的模型實現性能領先。

從擴展能力來看,BattleMatrix 平臺展現出極強的靈活性,通過 PCIe Gen5×8 規格的設計,單卡可實現雙芯佈局,提供 48GB 顯存;在典型服務器或工作站場景中,最多可搭載 16 張銳炫 Pro B60 GPU,顯存總量高達 384GB,足以支持 100B 甚至 200B 參數的 FP8 大語言模型。

更關鍵的是,該方案並非單純的硬件堆疊,而是包含了全棧軟件驗證 ——英特爾將 PyTorch、vLLM 等主流框架以及底層 OneAPI 庫、卡間通信 OneCCL 庫整合為容器化軟件包,定期更新並交付客戶,解決了企業「有硬件卻不知如何部署應用」的痛點,正如徐金平在採訪中所說,「戰鬥陣列項目讓產品和應用之間的距離更加接近了」。

從中央服務器到個人,英特爾打造全方位 AI 產品體驗矩陣

英特爾針對不同規模企業的需求提供分層方案,針對專用 AI 服務器,採用 2 塊英特爾至強處理器搭配 8-16 塊銳炫 Pro B60 的組合,顯存最高達 384GB,支持 32B 至 100B 參數模型,可服務 100 + 用戶併發,滿足中型企業部門級的大規模 AI 任務需求。

這種配置不僅能順暢處理多模態數據密集型計算,還通過 GPU Direct P2P 技術實現顯卡間直接顯存互訪,減少 CPU 中轉帶來的延遲;跨服務器部署時,支持 GPU GDR 技術的網絡集羣方案,還能進一步擴展算力,適配更大規模的模型與數據集。

徐金平在採訪中提到,英特爾在服務器領域的優勢還在於「全棧驗證」—— 從硬件結構兼容到散熱測試,再到軟件棧與模型適配,均與 OEM 廠商深度合作,確保方案落地的穩定性。

針對邊緣側輕量級推理需求,英特爾推出「酷睿處理器 + 1-2 塊銳炫 Pro B60」的緊湊方案,支持 7B 至 32B 參數模型,可實現單用戶到 16 + 用戶的併發處理,適用於智慧工廠、智慧公園等邊緣場景。

這類方案的核心優勢在於「平衡性能與成本」,邊緣場景往往對設備體積、功耗有嚴格要求,200W 功耗的銳炫 Pro B60 在保證 197 TOPS 算力的同時,無需過度依賴複雜散熱系統;且英特爾通過「EdgeBox」形態的硬件設計,聯合多家 OEM 廠商推出一體機方案,軟件上提前驗證適配主流模型,讓邊緣企業無需組建專業 AI 團隊,即可快速部署應用。正如徐金平所言,「邊緣部署的關鍵是解決企業痛點,我們把軟件棧、模型都做了驗證,客戶拿到手就能用」。

在通用工作站與個人電腦領域,英特爾的方案同樣貼合實際需求,通用工作站採用至強處理器搭配 4 塊銳炫 Pro B60,支持 32B 至 70B 參數模型,滿足 50 + 用戶併發,適合部門級 AI 數據處理;個人 ai pc 則以酷睿 Ultra 處理器搭配單塊銳炫 Pro B60,支持 32B 以上 INT4 量化模型,解決個人數據「不適合雲端處理」的隱私問題。

值得注意的是,英特爾在軟件生態上的積累為這些場景提供了強力支撐 —— 針對工作站用戶,英特爾提供從操作系統安裝到模型測試的全流程培訓手冊,甚至向終端用戶開放攢機參考信息;針對個人 PC,通過 XeSS 2 軟件與 XMX 硬件單元的結合,讓消費級產品也能高效運行 AI 任務,實現「專業性能大衆化」。

總結

英特爾銳炫多卡工作站方案之所以能成為企業 AI 落地的優選,核心在於其精準解決了企業在成本、場景適配、技術門檻等方面的核心顧慮。

從成本角度看,該方案通過「高性價比硬件 + 優化 TCO」雙管齊下,銳炫 Pro B60 本身定位主流價格段,硬件成本低於頭部競品;而全棧軟件的開源與容器化交付,又減少了企業在軟件採購、定製開發上的投入 —— 徐金平在採訪中明確表示,「我們要保證客戶用英特爾的產品,相比其他產品有更好的 TCO」,這種成本優勢在中小企業中尤為關鍵。

在場景適配性上,方案打破了「一刀切」的侷限,無論是需要 100B + 參數模型的大型企業服務器,還是僅需處理 32B 模型的邊緣設備,抑或是個人 ai pc,企業都能找到匹配的硬件組合,避免「算力過剩」或「性能不足」的浪費。以物流行業為例,邊緣站點可用 2 卡方案處理貨物識別任務,總部服務器則用 16 卡方案做全局數據建模,這種分層部署既滿足不同場景需求,又降低整體投入。

技術支撐與生態兼容進一步降低了企業的部署門檻。英特爾在軟件上擁抱開源生態,對 PyTorch、vLLM 等主流框架的深度優化,讓企業無需重構現有應用即可遷移;針對國內層出不窮的新模型,英特爾能第一時間響應客戶需求,驗證適配所需參數 —— 正如徐金平所說,「作為算力提供商,我們會第一時間適配客戶需要的大模型」。同時,硬件層面的兼容性驗證、延遲優化以及散熱與穩定性測試,都讓企業無需擔心技術細節,專注於業務本身。

對於缺乏專業 AI 團隊的中小型企業而言,方案的「便捷性」尤為重要,容器化軟件包可直接下載使用,無需複雜配置;工作站用戶能獲取 step-by-step 培訓手冊,甚至自主攢機;行業案例(如教育領域的學校一體機服務)還能提供參考,縮短探索週期。這種「把複雜留給英特爾,把簡單帶給客戶」的思路,讓更多企業有機會享受到 AI 紅利,真正實現「AI 部署普惠化」。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10