美銀預言AI基建繁榮將「更強更久」!英偉達、AMD仍列「首選名單」

智通財經
昨天

5月14日,當市場還在爭論人工智能是不是一場昂貴的"科技泡沫"時,美銀證券在最新研報中指出:AI相關支出不僅不會退潮,反而會"更強、更持久"。

在這份報告中,英偉達(NVDA.US)、AMD(AMD.US)和博通(AVGO.US)被繼續列為半導體板塊的"首選名單",美光科技(MU.US)和邁威爾科技(MRVL.US)也躋身核心名單。

AI支出不僅要「更強」,還要「更久」

鑑於微軟(MSFT.US)、亞馬遜(AMZN.US)、Alphabet(GOOGL.US)和 Meta Platforms(META.US)等主要超大規模雲服務商在近期公布的第一季度財報中展示的資本支出前景,美銀預計,到2030年,AI數據中心繫統的市場規模(TAM)將從此前預測的1萬億美元,飆升至驚人的1.7萬億美元。

在 1.7 萬億美元的潛在市場總量中,約 1.2 萬億美元可能來自 AI 加速器,高於此前預測的 1 萬億美元。這一上調歸因於超大規模雲服務商定製化專用集成電路(ASIC)出貨量的增加,例如谷歌的 TPU 或亞馬遜的 Trainium 芯片。數據中心 CPU 的市場規模可能達到約 1100 億美元(高於此前預測的 800 億美元),而 AI 網絡市場規模可能增至約 3160 億美元(高於此前預測的約 2400 億美元)。

分析師解釋道:「重要的是,我們注意到隨着 AI 工作負載尾部效應的延長,算力/內存組件正持續多樣化。但我們認為這是對整體潛在市場總量的補充,而非替代現有的工作負載或組件。例如,我們預計 CPU(在其新的獨立機架中)將與現有的 GPU-CPU 計算機架協同工作,而基於 SRAM 的超低延遲內存機架將與基於 HBM 的 GPU 機架共存。」

從「買鏟子」到「挖金礦」:2026年將迎來ROI拐點

過去兩年,華爾街對AI的投資邏輯主要集中在「基建搶跑」——即科技巨頭為了不掉隊,不得不瘋狂訂購英偉達的GPU。然而,這種「燒錢換未來」的模式總會被追問盈利前景。美銀分析師認為,隨着OpenAI和Anthropic等AI獨角獸即將開啓IPO(首次公開募股)進程,市場將清晰地看到這些「頂級模型生產商」如何將算力轉化為真金白銀的商業價值。

一旦這些初創鉅頭在二級市場證明了其盈利閉環,那麼從微軟、亞馬遜到Alphabet(谷歌母公司)和Meta的萬億支出,就有了合理且明確的財務邏輯。這不再是盲目地「買鏟子」,而是已經挖到了「金礦」的邊沿。

分析師特別強調,2026年將是AI銷售額與投資回報率(ROI)加速兌現的關鍵節點,而2027年則需驗證「Token經濟效率」(即單位算力的成本下降)能否如期實現。

然而,在狂熱的預期之下,美銀也保留了難得的冷靜。研報承認,當前的供應鏈瓶頸可能限制尖端組件的短期出貨,且市場對於資本開支的可持續性始終存有疑慮。

最後,美銀還在研報中上調了以下公司的目標價:英偉達(從 300 美元上調至 320 美元)、AMD(從 450 美元上調至 500 美元)、邁威爾科技(從 125 美元上調至 200 美元)以及美光(從 500 美元上調至 950 美元)。博通的目標價維持不變。

給投資者"潑冷水"

美銀的看多立場固然振奮人心,但作為理性的投資者,仍需警惕幾個潛在風險:

首先是"IPO幻覺"風險。如果OpenAI或Anthropic的上市表現不及預期,一級市場的估值泡沫破裂,可能引發連鎖反應,動搖雲廠商的投資信心。

其次是"效率悖論"。如果算法優化(比如模型壓縮、推理加速)讓單位AI任務消耗的算力大幅下降,硬件需求的增長可能跟不上市場預期。

最後是宏觀環境的"黑天鵝"。1.7萬億美元的TAM預測建立在當前相對寬鬆的利率環境之上。如果聯儲局長期維持高利率,雲廠商的資本成本上升,可能被迫削減長期支出計劃。

但無論如何,美銀這份報告傳遞了一個清晰的信號:AI基礎設施投資不是曇花一現的"事件驅動",而是一場至少持續到2030年的"結構性長牛"。在這場盛宴中,英偉達仍是那個"賣鏟子的人",但AMD、博通、邁威爾科技和美光,正在從不同的角落挖到屬於自己的金礦。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10