美國參議院通過GAIN AI法案

芯智訊
10/13

10月11日消息,據彭博社報道,美國參議院啱啱通過了 「2025 年國家人工智能保障准入和創新法案」(GAIN AI 法案),作為《國防授權法案》(NDAA)的一部分,該法案將要求英偉達AMD 等人工智能(AI)芯片廠商優先考慮供應美國公司的AI芯片訂單,其次纔是出口訂單。

「今天,參議院採取行動,確保美國客戶——包括小企業和初創企業——在購買最新的AI芯片時,不會被迫在中國科技巨頭身後排隊等候。」該法案的共同發起人參議員Elizabeth Warren 在一份聲明中寫到。該法案的主要共同提案人、參議員 Jim Bank也指出,該法案將增強美國在AI和其他尖端技術產業方面的競爭力,同時減少對美國競爭對手,尤其是來自中國的競爭。

根據之前的資料顯示,這項 GAIN AI 法案要求英偉達、AMD等美國AI芯片的開發商在向外國(包括歐洲國家或英國等盟國以及中國等競爭對手)出售產品之前,首先讓美國買家有機會優先購買先進的 AI 硬件。為此,該法案提議對運往美國境外的所有「先進」GPU(稍後會詳細介紹)建立出口管制,並拒絕「最強大的AI芯片」的出口許可證。

如果要獲得先進AI芯片的出口許可證,出口商必須確認達到以下條件:

1、美國客戶獲得了優先拒絕的權利;

2、美國沒有積壓的待定訂單;

3、預期出口不會導致庫存延誤或降低美國採購商的製造能力;

4、所提供的定價或合同條款並不有利於外國接收者,也不會不利於美國客戶;

5、外國實體不會利用美國出口的產品來削弱其國內市場以外的美國競爭對手;

根據該提案,如果缺少其中一項認證,則必須拒絕出口請求。

該法案認為同樣重要的是,它為美國立法者所認為的「先進集成電路」或高級人工智能芯片」設定了精確的標準。

滿足以下任何一項標準,即可被視為「先進集成電路」或高級人工智能芯片」:

1、可以提供達到 2400 或更高的總處理性能 (TPP) 分數,即以 TFLOPS 為單位計算為列出的處理能力乘以bit數(例如,TFLOPS 或 TOPS 為 8/16/32/64 位),沒有稀疏性。如果 TPP 為 4800 或更高的處理器被認為功能太強大,無論目的地國家/地區如何,都無法出口。

2、提供超過 3.2 的性能密度 (PD) 指標。PD 的計數方法是將 TPP 除以以平方毫米為單位測量的芯片面積。

3、DRAM帶寬超過1.4 TB/s,互連帶寬超過1.1 TB/s,或DRAM和互連組合帶寬超過1.7 TB/s。

從本質上講,美國參議院立法者計劃出口控制所有先進的AI芯片,包括英偉達的 HGX H20(因為高內存帶寬)或 L2 PCIe(因為高性能密度),它們現在已經使用了大約兩年。

目前美國衆議院已經通過了《國防授權法案》,但缺少美國AI芯片製造商必須將美國客戶訂單放在首位,將出口放在次要位置的條款。隨着,美國參議院通過了GAIN AI 法案,接下來該法案如果能夠通過衆議院的審議,並獲得美國總統的簽署,那麼將成為正式的法案。

那麼,該法案將再次限制英偉達的 HGX H20、AMD 的 Instinct MI308 等向美國以外的所有客戶銷售。

此外,TPP 為 4800 或更高的 GPU 將被禁止出口,因此英偉達將無法在美國境外銷售其 H100 和更先進的 GPU,因為即使是 H100,其TPP 分數也高達16,000(B300 的 TPP 分數為 60,000)。

英偉達一直批評這項法案,稱其全球銷售「並沒有剝奪美國客戶的任何東西」,提出該法案的背後的邏輯是「基於末日科幻小說」。

英偉達還表示,該法案正在「試圖解決一個不存在的問題」,並將「限制全球任何使用主流計算芯片的行業的競爭」。

對於供應中國客戶會影響美國客戶的說法,英偉達曾表示,其 H20 出貨不會影響 H100、H200 和 Blackwell 芯片的供應。這種說法似乎是有道理的,因為它們都使用不同的規格,並且一個的供應並不會影響另一個的供應。

儘管中國市場是英偉達僅次於美國的最大市場,但相比美國市場的銷售額,英偉達在中國的銷售額仍然相形見絀。財報顯示,美國佔英偉達2024財年銷售額的近一半,而中國僅佔其總收入的13%。

此外,由於美國和中國之間持續的貿易戰影響,英偉達來自中國市場的銷售佔比可能會在不久的將來持續下降。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10