「AI教父」辛頓:科技公司眼中只有短期利潤,並不關心AI長期影響

IT之家
10小時前

IT之家 3 月 23 日消息,當地時間 3 月 22 日,據《財富》雜誌報道,多數科技行業領袖並未真正思考 AI 的最終走向。諾貝爾獎得主、「AI 教父」的傑弗裏 · 辛頓認為,當前行業的核心驅動力並不在長期影響,而是短期回報。「對公司所有者來說,推動研究的動力是短期利潤。」

他對《財富》表示:「對公司所有者來說,驅動研究的是短期利潤。研究人員關注的也是眼前的問題,而不是研究最終會帶來什麼結果。我們不會從一開始就設定‘人類未來會怎樣’這樣的目標,而是圍繞具體問題展開,比如如何讓計算機識別圖像,或者生成逼真的視頻,這纔是真正驅動研究的動力。」

IT之家從報道中獲悉,辛頓長期警告 AI 風險,並認為在實現超級智能之後,AI 導致人類滅絕的概率可能達到 10% 至 20%。2023 年,在將 DNNresearch 出售給谷歌 10 年後,他離開谷歌,以便更自由地表達對 AI 風險的擔憂,並指出難以阻止技術被不良行為者濫用。

對於風險類型,他區分了兩類:「一類是壞人濫用 AI 的風險,這種情況已經出現,例如虛假視頻和網絡攻擊,甚至可能擴展到病毒領域;另一類則是 AI 本身成為不良行為者,這兩者是完全不同的風險。」

在應對路徑上,辛頓認為難點在於每一類問題都需要單獨解決。例如,可以通過類似溯源認證的方式對圖像和視頻進行標記,以遏制深度僞造傳播,就像印刷術出現後出版物開始標註作者一樣。他同時也指出,這類方案具有侷限性:「這個問題或許可以解決,但解決它並不能解決其他問題。」

對於 AI 本身的風險,辛頓認為關鍵在於重新定義人與 AI 的關係。一旦 AI 達到「超級智能」水平,不僅能力將全面超越人類,還可能產生生存和控制的動機,現有「人類可以控制 AI」的前提將不再成立。

他提出,應為 AI 設計類似「母性本能」的機制,使其對人類產生同情而非控制慾,並以母嬰關係作類比:目前唯一一個更聰明的存在被較弱者影響的例子,是嬰兒對母親的影響。「因此,這或許是我們面對超級智能 AI 時可以參考的模型 —— 它們像母親,而我們像嬰兒。」

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10