Anthropic祭出「最強殺手鐧」!強到不敢讓人用?

格隆匯
04/08

AI競賽進入白熱化,人工智能初創公司Anthropic亮出「殺手鐧」。

當地時間周二,Anthropic宣佈推出「Project Glasswing」聯合項目,邀請蘋果谷歌微軟等科技巨頭測試其新一代模型Claude Mythos Preview(神話)。

Anthropic表示,新模型「威力巨大」,因此暫無向公衆開放的計劃。

「神話」模型威力巨大

作為Anthropic傾力打造的前沿模型,Claude Mythos的核心優勢主要集中在超強的漏洞識別與邏輯推理能力上。

據官方披露,新模型已在主流操作系統、網頁瀏覽器中發現數千個零日漏洞。

其中,一些漏洞歷經數十年人工審查與數百萬次自動化安全測試仍未被察覺。

Anthropic表示,在發現並利用軟件漏洞方面,該模型的表現已超越除頂尖專家外的絕大多數人類。

在專項網絡安全基準CyberGym,Mythos Preview得分83.1%,遠超前代模型Claude Opus 4.6。

與之前的AI模型不同,Anthropic明確暫不向公衆開放新模型。

公司表示,這款軟件能夠以遠超人類的規模識別網絡安全漏洞,但同時也能自主生成利用這些漏洞的攻擊方法,一旦落入不法分子手中將造成巨大風險。

為此,Anthropic同步推出「Project Glasswing」項目,集結亞馬遜雲科技、谷歌、微軟、英偉達博通思科等衆多科技巨頭,以及克勞德斯塔克、帕洛阿爾託網絡等網絡安全企業,旨在藉助Mythos Preview的能力,為全球關鍵軟件系統築牢安全防線。

為推動項目順利開展,公司承諾提供最高1 億美元的模型使用額度補貼,還將向開源安全組織捐贈400萬美元,助力提升開源軟件的安全性。

公司研究產品管理主管Dianne Na Penn稱,入選企業將「搶佔先機,以前所未有的規模修復漏洞、檢測代碼安全隱患」。

亞馬遜雲科技副總裁Amy Herzog透露,其團隊已將該模型應用於核心代碼庫,有效提升了代碼安全性。

摩根大通稱,將以嚴謹、獨立的態度,評估新模型在覈心基礎設施防禦性安全工作中的作用。

不過,Palo Alto網絡首席產品與技術官Lee Klarich警示,該模型的出現既提供了顛覆性漏洞發現方案,也帶來了人工智能輔助型攻擊。

「未來的攻擊將更頻繁、更迅猛、更復雜」。

首次反超OpenAI

值得注意的是,就在公布新模型的前一天,Anthropic剛宣佈與博通、谷歌達成深度合作

根據協議,博通、谷歌將為Anthropic提供約3.5吉瓦的下一代基於張量處理單元(TPU)的AI算力支持,預計於2027年正式投入使用。

首席財務官克里希納・拉奧稱,此次合作將助力Anthropic「打造足以支撐客戶規模爆發式增長所需的算力基礎設施」。

最新披露的數據顯示,公司年營收規模已突破300億美元,較2025年底的90億美元實現大幅增長,首次實現對OpenAI的反超。

Anthropic稱,今年以來市場對其Claude系列服務的需求加速攀升,年消費額超百萬美元的企業客戶已逾1000家,這一數字較2月時實現翻倍增長。

目前,公司正以迄今為止最大規模的算力投入應對需求擴張

據估算,Anthropic未來數年內可獲得的新增算力接近5吉瓦,總承諾支出規模或高達數千億美元。

傑富瑞分析師指出,Anthropic的持續高速增長,有望為其雲計算合作伙伴未來的營收與訂單增長提供支撐。

值得一提的是,Anthropic PBC聘請微軟高管Eric Boyd負責搭建AI基礎設施。

Boyd直言,「人工智能正以驚人的速度發展,過去六個月,尤其是近兩個月,Claude Code所展現的影響力,充分印證了人工智能的無限潛力」。

不過,對於Anthropic來說,OpenAI仍是不容小覷的強勁對手

目前,OpenAI的最新估值為8520億美元,Anthropic為3800億美元。

分析師認為,Anthropic的增速迅猛,可能引發市場擔憂,未來公司需謹慎平衡兩大核心需求:一是訓練下一代前沿模型所需的算力,二是當前模型推理服務產生的算力需求。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10