Stephen Nellis
路透舊金山2月26日 - Nvidia NVDA.O可能是靠專用圖形處理單元(GPU) 為人工智能服務器提供動力而發家致富的,但首席執行官黃仁勳卻越來越多地表達了他對通用 CPU 的喜愛。
幾十年來,CPU(中央處理器)一直被視為計算機的主腦--英特爾INTC.O或有時是先進微設備公司AMD.O的產品。
黃仁勳喜歡說,過去 90% 的計算都是在中央處理器上進行的,10% 的計算是在他的芯片上進行的,而近年來這一比例發生了翻轉。
但現在,CPU 正在捲土重來--隨着人工智能公司從訓練模型轉向部署模型,CPU 越來越被視為同等甚至更好的選擇--Nvidia 計劃在這一轉變中發揮重要作用。
黃仁勳在周三就公司第四季度業績 (link) 與分析師舉行的電話會議上表示:「我們既喜歡CPU,也喜歡GPU。」
他向分析師們保證,Nvidia不僅已經為CPU重回聚光燈下做好了準備,而且Nvidia自己為數據中心提供的CPU產品(於2023年首次發布) (link),將在競爭中勝出對手。
上個月,在 1 月份的拉斯維加斯消費電子展上,黃仁勳還表示,數據中心使用的高性能 Nvidia CPU 數量將呈爆炸式增長,並稱他不會感到驚訝,「如果 Nvidia 成為全球最大的 CPU 製造商之一。」
CPU 與 GPU
幾十年來,CPU 和 GPU 一直為不同的計算任務服務。CPU 是通用芯片,設計用於以合理的速度處理軟件程序員可能向芯片提出的各種數學任務。
相比之下,GPU 專注於執行一系列更簡單的數學任務,但這些簡單的計算要同時並行執行數千次。
在視頻遊戲中,這意味着每秒多次計算螢幕上數千個像素的值,而在人工智能工作中,這意味着對開發人員用來表示文字和圖像等現實世界數據的大型數字矩陣進行乘法和加法運算。
Creative Strategies 公司的分析師本-巴加林(Ben Bajarin)說:「人工智能公司正在越來越多地部署‘代理’,它們可以獨立完成編寫代碼、篩選文檔和撰寫研究報告等任務,而這種計算‘越來越多地、有時甚至主要是,在CPU上進行’。」
Nvidia目前的旗艦人工智能服務器名為NVL72,包含36個CPU和72個GPU。Bajarin 認為,在所謂的代理工作中,這種比例可能會變為 1 比 1,甚至可以完全省略 GPU。
英偉達要證明自己
Nvidia最近宣佈與Meta Platforms META.O達成一項協議,將在獨立基礎上大量使用其Grace和Vera CPU (link) 芯片,這彰顯了Nvidia在CPU領域的雄心壯志。與英偉達目前的人工智能服務器相比,這是一個相對較新的發展,在英偉達的人工智能服務器中,每個CPU都配有多個GPU。
不過,Meta 並不是更換了 CPU 供應商,它只是獲得了更多的供應商。幾天後,AMD 也宣佈與 Meta (link) 簽訂了一項大型協議,其中也包括 Meta 已購買多年的 CPU。
在與分析師的電話會議上,黃仁勳認為,Nvidia 在 CPU 方面採取了一種根本不同的方法。
他概述了為什麼 Nvidia 儘量減少英特爾和 AMD 採用的將芯片分解成更小部件的方法,稱 Nvidia CPU 能夠連續執行許多簡單的任務,並能很好地訪問大量計算機內存。
「它的設計重點是非常高的數據處理能力,」黃在電話會議上說。「之所以如此,是因為我們感興趣的大多數計算問題都是數據驅動的,人工智能就是其中之一。」
HotTech Vision and Analysis首席分析師戴夫-阿爾塔維拉(Dave Altavilla)說,Nvidia的目標是證明曾經主要由英特爾提供的CPU類型 "不再是現代計算基礎設施的默認基礎。相反,它只是幾種架構選項中的一種"。
Huang表示,Nvidia將在下個月於硅谷舉行的年度開發者大會上披露更多有關CPU的信息。
(為便利非英文母語者,路透將其報導自動化翻譯為數種其他語言。由於自動化翻譯可能有誤,或未能包含所需語境,路透不保證自動化翻譯文本的準確性,僅是為了便利讀者而提供自動化翻譯。對於因為使用自動化翻譯功能而造成的任何損害或損失,路透不承擔任何責任。)