Anthropic的AI安全风波:理想与现实的博弈

环球市场播报
Feb 27

  分析:莉萨・埃迪西科、大卫・戈德曼

Anthropic 联合创始人兼首席执行官达里奥・阿莫迪。

  Anthropic 正站在成长型科技公司的经典十字路口:如何在扩张规模的同时,不违背让自己脱颖而出的核心原则。

  这家 AI 公司始终将安全奉为圭臬。它积极倡导 AI 监管,呼吁在 AI 取代部分人类工作时保障劳动者权益。Anthropic 一直不遗余力地向客户传递一个明确信号:我们是业界的 “正派玩家”

  然而,公司为塑造这一品牌形象而自我设定的安全护栏,如今却可能成为其发展的阻碍。

  本周,五角大楼向 Anthropic 下达最后通牒:要么放弃 AI 伦理限制,要么失去 2 亿美元合同并面临被列入黑名单。同样在本周,Anthropic 放松了核心安全政策,以在竞争激烈、瞬息万变的市场中获得更大增长空间。

  目前尚不清楚本周的一系列事件将如何影响 Anthropic 的业务与声誉,但它的每一个决定都将产生深远影响。

  我们之所以能预见这一点,是因为 Anthropic 的困境在科技行业屡见不鲜。许多公司高调宣扬自身价值观与道德准则,却最终面临艰难抉择 —— 在增长与坚守理想之间二选一。

  Anthropic 或许该引以为戒。

  OpenAI 与山姆的周末风波

OpenAI 首席执行官萨姆・奥尔特曼。

  就在两年多前,Anthropic 的头号竞争对手就曾因 “以安全为代价换取增长” 遭遇内部分歧。

  在企业史上最离奇的董事会风波之一中,2023 年 11 月的一个周五,Anthropic 的主要对手 OpenAI 突然解雇了创始人兼首席执行官萨姆・奥尔特曼,却又在接下来的周二将其重新聘用。

  这场风波源于 OpenAI 独特的公司架构:ChatGPT 背后这家快速增长的营利性公司,受一个非营利董事会监管。四年前,公司在章程中明确写道,OpenAI 始终 “担忧” AI 可能给人类带来 “快速变革” 的潜在风险。董事会成员担心,奥尔特曼推进速度过快,可能危及公司承诺保障的安全。

  但解雇奥尔特曼引发了员工大规模离职的威胁 —— 这一局面若持续,可能导致公司覆灭。因此,董事会在几天后重新聘用了奥尔特曼。不久后该董事会解散,奥尔特曼于去年调整了公司架构,使其摆脱了非营利监管机构的束缚。

  此后,OpenAI 一直在平衡发展速度与安全之间艰难前行,还面临多起诉讼,指控其产品诱导年轻人自残。OpenAI 否认了这些指控。

  苹果与圣贝纳迪诺枪击案

苹果首席执行官蒂姆・库克。

  2015 年 12 月,赛义德・法鲁克及其妻子塔什费恩・马利克在加利福尼亚州圣贝纳迪诺的内陆地区中心杀害了 14 人。这对夫妇随后在与警方的枪战中身亡。

  调查人员获准提取法鲁克 iPhone 中的数据,但因手机设有密码锁而无法访问。加州一名法官下令苹果协助执法人员解锁该手机。

  但在一封由苹果首席执行官蒂姆・库克签署的公开信中,苹果拒绝了这一要求。库克表示,法官的命令将打开 “iPhone 的后门”,而 “我们认为创造这样的后门太过危险”。公司称,对恐怖分子毫无同情,但遵守命令将赋予政府当局 “侵入任何人设备获取数据的权力”。

  苹果的这一决定招致了猛烈抨击 —— 包括当时的总统候选人唐纳德・特朗普。但此后,苹果因捍卫用户隐私赢得了广泛赞誉,而隐私保护也已成为苹果品牌的代名词。

  如今,苹果经常宣传其不会出售用户数据,也不会在服务器上存储某些个人信息,以此与主要竞争对手谷歌形成差异化竞争。

  Etsy 与独立卖家的博弈

Etsy 纽约总部。

  21 世纪初,当亚马逊的电商帝国刚刚崛起时,Etsy 作为一个新颖的替代品出现,消费者可以在这里找到独特的手工制品。

  但 2013 年,Etsy 做出了一项颇具争议的改变,挑战了这一品牌理念。它放宽政策,允许卖家使用制造商并外包运营,当时引发担忧:这将不再为没有资源雇佣员工的小型独立卖家提供公平竞争环境。

  然而,这一决定对 Etsy 发展成为如今的市场平台至关重要。如今,Etsy 平台上有超过 1 亿件在售商品和约 800 万活跃卖家。

  纽约大学斯特恩商学院富邦科技、商业与创新中心主任阿伦・桑达拉拉詹表示:“从商业角度看,这一决定对 Etsy 来说是成功的,但对公司而言,那是一段艰难的时期。”

  Anthropic 的前路何在

Anthropic 的 Claude AI 应用。

  这些案例为 Anthropic 提供了一份充满警示的路线图。

  乔治城大学安全与新兴技术中心分析副主任欧文・丹尼尔斯表示,短期内,Anthropic 面临的最大影响可能是客户及潜在客户对公司的价值认知与信任度。

  Anthropic 称,其自我设定的安全措施本就旨在保持灵活性,并随 AI 发展而调整。公司承诺未来在安全问题上保持透明,并表示自己别无选择:如果停止增长,那些不那么重视安全的竞争对手可能会抢占先机,最终让 AI 整体 “变得更不安全”。

  桑达拉拉詹指出,目前尚不清楚 Anthropic 的政策调整会带来何种结果,因为 AI 的生存风险在很大程度上仍停留在 “概念层面”。

  他表示,对任何称这是 AI 安全重要时刻的专家,他都会持怀疑态度。但对 Anthropic 而言,这可能是一个关键节点。

  “在我看来,Anthropic 在此处收回某项安全承诺,更多关乎 Anthropic 自身,而非 AI 的未来。” 他说道。

海量资讯、精准解读,尽在新浪财经APP

责任编辑:郭明煜

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10