Anthropic正在賦予其AI編程工具更大的自主權,同時試圖在效率與安全之間尋求平衡。
3月24日,Anthropic宣佈為Claude Code推出"自動模式"(auto mode),允許AI自行判斷哪些操作可以直接執行,無需等待用戶逐一確認。
這一功能目前以研究預覽版形式面向團隊計劃用戶開放,未來數日內將擴展至企業版及API用戶。
新功能的核心在於內置安全機制,每項操作在執行前均會經過AI安全層的審查,系統將自動放行被判定為安全的操作,並攔截存在風險的行為。
Anthropic表示,該安全層還可檢測提示注入攻擊,即惡意指令被隱藏在AI正在處理的內容中,試圖誘導模型執行非預期操作。
該公司建議用戶在隔離的沙盒環境中使用這一新功能,以防止潛在風險蔓延至生產系統。
開發者痛點驅動產品迭代
對於當前使用AI編程工具的開發者而言,一個普遍困境是,要麼對AI的每一步操作全程監督,要麼放手讓模型自行運行,由此承擔不可預知的風險。
Anthropic的自動模式本質上是對Claude Code現有的"不會再向用戶請求確認(dangerously-skip-permissions)"命令的升級延伸。
該命令原本將所有決策權完全交由AI處理,而新模式則在此基礎上疊加了一層安全過濾機制。
通過讓AI而非用戶來決定何時需要申請權限,Anthropic試圖在不犧牲執行效率的前提下,為開發者提供更高程度的安全保障。
GitHub、OpenAI等公司已相繼推出能夠代替開發者執行任務的自主編程工具,Anthropic此次的舉措在此基礎上進一步推進,將權限決策的主導權從用戶一側轉移至AI本身。
自動模式的發布,緊隨Anthropic近期一系列產品更新之後,包括用於在代碼合併前自動捕捉缺陷的Claude Code Review,以及允許用戶將任務委派給AI代理處理的Dispatch for Cowork。
這一系列佈局顯示,Anthropic正系統性地構建面向企業開發者的自主化AI工作流產品矩陣。
關鍵細節尚待釐清
儘管如此,這一功能仍存在值得關注的不確定性。
Anthropic目前尚未公開其安全層判定操作風險等級的具體標準,而這恰恰是開發者在大規模採用該功能前最需要了解的核心信息。
此外,自動模式目前僅支持Claude Sonnet 4.6與Opus 4.6兩款模型,且仍處於研究預覽階段,意味着該產品尚未最終定型。
對於考慮在生產環境周邊部署這一功能的企業用戶而言,上述限制與信息不透明之處或將是其審慎評估的重要依據。