直擊黃仁勳最新交流會:中國芯片爆發了,我希望能找到新的平衡

新浪科技
2025/10/29

  文 | 康路 發自華盛頓

  2025年10月28日,在GTC大會期間,黃仁勳和媒體以及行業分析師對話,話題從美國本土製造到能源需求、開發者生態與OpenAI投資,幾乎涵蓋了AI產業鏈的全部關鍵環節。

  整場問答持續約1個小時,更多時候,他在回答產業結構與技術演進的問題。「AI競爭不是單一維度的」,黃仁勳認為,AI競爭包括能源、芯片、基礎設施、模型與應用等層次,並呼籲美國不僅要發明AI,更要率先普及AI。

  黃仁勳也花了相當篇幅討論中國的AI發展。他指出,全球50%的AI研究人員是中國人,同時,中國在開源生態和模型創新上的貢獻「不容忽視」。「Qwen是世界級的語言模型,DeepSeek在推理架構上的突破是革命性的。」 他同時注意到,中國的國產芯片企業正在迅速崛起,「在我們離開中國的時候,國產芯片正在成倍增長。」

  談美國本土的製造能力

  黃仁勳:目前最先進的封裝技術——CoWoP(共封裝光學技術)還不在美國,但正計劃在幾個月內在美國建立。TSMC等合作伙伴正在幫助我們建設這一能力。TSMC不僅是英偉達的重要合作伙伴,也是美國的戰略伙伴。未來,我們將在美國完成從芯片製造、封裝、系統集成到AI工廠部署的全過程。這將帶來大量高薪製造崗位。

  談AI競爭

  黃仁勳:至於是否可能落後於中國?答案是有可能。全球50%的AI研究人員是中國人。我們必須繼續保持開放。AI競爭不是單一維度的,它包括能源、芯片、基礎設施、模型與應用等層次。特別是,我們需要更多工程師、管道工、技工來建設AI工廠。這些都是高薪、體面的工作。美國不僅要發明AI,更要率先普及AI。

  談AI革命是否會帶來短期就業陣痛

  黃仁勳:變革總是伴隨陣痛。200年前,美國80%的人口從事農業,如今只有1.7%,但我們並沒有78%的失業率。AI的整體效果將是巨大的生產力提升。早期計算機只提升了少數擅長邏輯與數學的人,而AI能讓每個「有好奇心的人」受益。我認為AI帶來的生產力增長將惠及更廣泛的人羣,而不是少數精英。它不會摧毀就業,而會創造前所未有的機會。

  談芯片出口與收益分成機制

  黃仁勳:要實現收入分成,首先需要制定一項新的監管條例。目前政府還在起草相關規定。在這項法規正式出台之前,我們實際上還無需面對這個問題。

  談空間計算與可穿戴AI的未來

  黃仁勳:技術層面,未來的AI必須是「隨時待命」的。它需要在你喚醒的瞬間就能回應,具有即時交互能力。而今天的AI延遲仍然過高,語音互動不夠自然。我們正在開發「超低延遲」的AI,例如 Grace Blackwell 這樣的新架構,可以提供更快響應和更強算力。未來每個人都可能佩戴AI設備,比如眼鏡,那將需要比現在多得多的計算能力。因此,我們需要持續擴展AI算力基礎設施。

  談AI工廠的能源需求

  黃仁勳:沒有能源,就無法贏得AI或製造業的競賽。過去一些政策限制了能源供應,卻希望經濟增長提高。這是自相矛盾的。AI競賽太重要,我們必須利用一切能源形式。同時,美國的優勢在於技術效率更高。Grace Blackwell 的能效提升說明:我們可以用更少能量實現更大計算力。

  談OpenAI投資與IPO時間表

  黃仁勳:我們在OpenAI持股比例非常小。老實說,我希望當初能投得更多(笑)。那1000億美元並不是我們已投出的資金,而是一個潛在合作框架。如果OpenAI明年上市,我一點也不會驚訝。我相信那將是史上最成功的IPO之一。

  談開發生態與中美競爭

  黃仁勳:我一直強調,贏得開發者,就是贏得未來。英偉達CUDA是一個全球計算平台,而中國是全球最大的開源貢獻國之一。許多世界級的開源項目,如Qwen模型、DeepSeek推理框架,都是在中國誕生的。如果我們因政策切斷與他們的聯繫,將失去全球一半的AI人才。如今我們看到了結果:封鎖反而推動了中國芯片公司的爆發。在我們離開中國之後,中國國產芯片成倍增長。我希望能找到新的平衡。

海量資訊、精準解讀,盡在新浪財經APP

責任編輯:江鈺涵

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10