路透舊金山6月4日 - 週三發佈的新數據顯示,NvidiaNVDA.O最新芯片在訓練大型人工智能$(AI)$系統方面取得進展,訓練大型語言模型所需的芯片數量大幅下降。
MLCommons是一家發佈AI系統指標效能結果的非營利組織,該組織發佈了有關Nvidia和AMD(超威/超微)AMD.O 等業者的芯片在訓練處理大量數據學習的AI系統的新數據。儘管股市中大部分的注意力已經轉移到更大的AI推理市場(即利用人工智能系統處理用戶的問題),但訓練系統所需的芯片數量仍然是一個關鍵的競爭問題。中國的DeepSeek聲稱,他們打造出一款具有競爭力的聊天機器人,其系統使用的芯片比美國競爭對手少得多。
這是 MLCommons 首次發佈關於芯片在訓練AI系統方面表現的結果,例如Meta Platforms META.O發佈的開源AI模型 Llama 3.1 405B,該模型具有足夠多的所謂“參數”,可以表明芯片在世界上一些最複雜的訓練任務中的表現,這些任務可能涉及數萬億個參數。
Nvidia 及其合作伙伴是唯一提交有關訓練該大型模型的數據的測試者,數據顯示,Nvidia 的新款 Blackwell 芯片的單芯片速度比上一代 Hopper 芯片快兩倍多。
Nvidia新芯片最快的成績是,用2,496塊Blackwell芯片在27分鐘內完成了訓練測試。數據顯示,若要比前述成績更快完成訓練,使用Nvidia前一代芯片的數量得是Blackwell芯片的三倍以上。
與 Nvidia 合作產生部分成果的 CoreWeave 首席產品官Chetan Kapoor 在新聞發佈會上表示,人工智能產業有一種趨勢,即串聯多個芯片小組成爲子系統,用於個別的人工智能訓練任務,而不是使用10萬個或更多芯片來創設同質組。
Kapoor 說:“使用這樣的方法,他們能夠繼續加速或減少訓練這些數萬億參數模型的時間。”(完)
(編審 張明鈞)
((jeremy.chang@thomsonreuters.com; +886-2-87297935))
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。