超400家美上市企業警示AI風險:不用怕落後,用了怕翻車

IT之家
2025/11/16

IT之家 11 月 16 日消息,越來越多的企業在向美國證券交易委員會(SEC)提交的年度文件中警示投資者:人工智能(AI)技術可能對其業務造成重大負面影響。

據 AlphaSense 平台的一項分析顯示,截至今年,已有 418 家市值超 10 億美元(IT之家注:現匯率約合 71.06 億元人民幣)的上市公司在文件中提到了與 AI 相關的聲譽風險因素,這一數字較 2024 年增長 46%,約為 2023 年水平的 9 倍。

這些文件指出,AI 數據集可能通過生成偏見性或錯誤信息、破壞數據安全,或侵犯他人權利等方式,損害企業聲譽。

例如,Take-Two 公司在 2024 年向 SEC 提交的文件中首次將 AI 列為風險因素,並在 2025 年的文件中將相關內容篇幅擴充逾一倍。該公司首席執行官 Strauss Zelnick 向 Business Insider 表示:「我們所有人如今使用 AI 的程度,已遠超一年前乃至更早時期。隨着應用範圍擴大、實驗增多、落地深化,潛在風險也隨之上升。」

此類警示涵蓋廣泛行業:

支付巨頭 Visa 在本月早些時候提交的 SEC 文件中指出,隨着其在商業場景中大規模部署「智能體 AI」(agentic AI),「錯誤或爭議性支付事件可能增加,退單率上升,並引發聲譽損害」;

消費品製造商高樂氏(Clorox)在 8 月報告中警示,AI 工具「可能泄露機密或敏感信息」;

美妝品牌 e.l.f. Beauty 則在 5 月備案中表示:「我們能否及時適應 AI 領域湧現的新監管要求、技術變革、倫理標準及利益相關方期待,將實質性影響公司運營、財務狀況與聲譽。」

芝加哥大學法學院教授 M. Todd Henderson 指出,企業依法須在 SEC 備案中及時更新風險因素,尤其當新風險出現或既有風險發生實質性變化時,此舉旨在「警示投資者」,促使其充分知悉可能嚴重損害企業價值的潛在威脅,這是信息披露制度的有意設計。

Henderson 強調:「企業必須披露‘已知的未知’(known unknowns)。」

他認為,企業高管將 AI 風險納入正式披露,表明其視該技術潛在影響為重大事項,其重視程度甚至可能超過 20 世紀 90 年代末互聯網興起之時。「當時,企業披露普遍呈現‘謹慎樂觀’基調」,他補充道,「且彼時互聯網似乎僅對零售商與紙質出版商構成威脅,而非絕大多數行業。」

相較之下,當前 AI 相關風險警示措辭更為嚴峻。跨行業企業普遍警告:AI 可能引發嚴重後果。Henderson 舉例稱:「數據遭黑客竊取固然是重大事件,但若部署的 AI‘幻覺頻發’,後果可能更為嚴重。錯誤的醫療診斷、法律意見或工程結論,可能釀成動搖企業根基的重大失誤。」

員工對 AI 的濫用亦不容忽視。會計事務所畢馬威(KPMG)與墨爾本大學於 2024 年 11 月至 2025 年 1 月開展的一項全球調查(覆蓋 32,352 名員工)顯示:約 66% 的受訪者曾未經審慎評估便直接採納 AI 輸出內容;72% 表示因使用 AI 而降低了工作投入程度。

儘管風險顯著,企業仍高度認可 AI 在提升生產力方面的巨大潛力,並競相加大投入。據管理諮詢公司貝恩(Bain & Co.)數據,2024 年企業平均 AI 總支出較 2023 年翻倍,達 1,030 萬美元(調查對象為年營收 5,000 萬美元至超 50 億美元的企業)。

Take-Two 的 Zelnick 表示,AI 正切實提升其員工效率:「我們正着力減輕重複性工作負擔,讓人得以將時間與智力集中於更具創造性的工作。例如,我們部分手遊關卡已主要由 AI 生成,幾年前可不是這樣。」

儘管這位《俠盜獵車手》(Grand Theft Auto)系列掌舵人承認 AI 潛藏風險,但他強調:拒絕採用 AI 同樣危險,這一兩難困境亦明確反映於衆多企業(包括 Take-Two 自身)的 SEC 備案中。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10