AIPress.com.cn報道
在AI代理能力不斷增強的背景下,Apple研究團隊將焦點轉向一個更具現實意義的問題:當AI可以替用戶「操作電腦」時,用戶到底願意放權到什麼程度?
該研究首先分析了9款現有代理系統,包括Claude Computer Use Tool、OpenAI Operator、Project Mariner等,構建出覆蓋「輸入方式」「行為可解釋性」「用戶控制」「心智模型」四大維度的體驗框架。
研究指出,當前AI代理設計普遍強調自動化與執行能力,卻未充分回答一個核心問題——用戶如何實時理解代理的決策邏輯。
在隨後的用戶實驗中,20名參與者通過聊天界面與「代理」完成度假租賃與電商購物任務。實際上,所謂代理由研究人員人工模擬操作。
實驗結果呈現出清晰趨勢:
用戶希望看到代理在做什麼,但不希望被迫逐步監管
在探索型任務中容忍更高自主度
在執行型任務中更強調精準與一致
在涉及金錢或賬戶變更時,強烈要求確認機制
最具代表性的發現是,一旦代理在模糊選項下自行做出未說明的選擇,參與者普遍要求系統暫停並解釋理由。若代理悄然偏離原計劃,信任度迅速下降。
研究認為,AI代理的關鍵挑戰並非能力不足,而是「黑箱決策」帶來的心理落差。當系統代替用戶點擊、選擇、提交信息時,任何未被解釋的假設都可能被視為風險。
這項研究為AI代理的產品化路徑提供了更明確方向:真正可落地的代理系統,需要在自動化與可控性之間找到動態平衡,而非單純追求更強的自主執行能力。(AI普瑞斯編譯)