Anthropic筑墙,DeepSeek修路

字母榜
Jan 13

对于Vibe Coding的开发者来说,这两天无疑是至暗时刻。大量使用OpenCode、Cursor等第三方工具的用户突然发现,他们赖以生存的Claude工作流被切断了。

面对社交媒体上的愤怒质问,Anthropic的回应简短而强硬:公司已部署技术措施,阻止那些伪装成官方客户端的第三方流量。

这场突如其来的封禁,表面上是技术合规问题,实则暗藏玄机。因为就在封禁行动的同一时间节点,Anthropic悄然发布了其战略级新产品Cowork。

这种时间上的精准巧合,让整件事看起来更像是一场为新产品铺路而进行的清场行动。

当Anthropic忙着通过“筑墙”来捍卫自家新产品的领地时,DeepSeek若能抓住机会“修路”,这场风波或许反将成为其弯道超车的契机。要看懂这场多方博弈,我们不能只盯着这一纸禁令。

01

Cowork的诞生源于一个意外发现,团队注意到大量用户开始“不务正业”,将原本用来辅助写代码的Claude Code,正在被大量用户用于处理非编程任务。

用户们并没有把这个强大的CLI(命令行界面)工具局限在代码仓库里,而是开始指挥它去整理乱七八糟的下载文件夹、从几百封邮件中提取关键数据、甚至用来做旅行规划和婚礼筹备。

于是,Anthropic顺势而为,将这款开发者工具的底层能力剥离出来,打造了面向所有知识工作者的Cowork。

由此一来,Cowork可以直接读写本地文件、调用系统工具。它能像一个真实员工一样,理解模糊的指令,拆解任务,然后并行处理。

你可以让它“把这周所有的发票整理成Excel表”,它就会自己去遍历文件夹、识别图片内容、录入数据、保存文件,而不需要你一句句地喂给它上下文。

目前该产品作为研究预览版,仅面向macOS平台的Claude Max订阅用户开放。

这一动作表明,Anthropic正试图将Claude Code验证成功的交互模式从代码领域复制到更广泛的办公场景,建立官方的流量入口。

理解了Cowork的定位,就能看懂这次大规模封禁背后的深层逻辑。

Anthropic这次的封禁行动,其官方的解释是“针对Harnesses”。翻译成中文,其指的就是“套壳工具”或“马甲接口”。

长期以来,OpenCode、Cursor等第三方工具,本质上是在做和Cowork类似的事情,它们在Claude的模型之上,封装了一层更好用的交互界面。

在正常的商业逻辑中,OpenCode、Cursor这类第三方编程辅助工具,本应通过正规的商业API接口调用Claude模型,并按照Token使用量据实付费。

然而,由于Anthropic官方的Claude Pro或Team订阅计划提供了相对宽松的使用额度,聪明的开发者们发现了一个巨大的套利空间。

这些套壳工具利用OAuth(Open Authorization)认证机制,通过技术手段截取用户个人订阅账号的凭证。当用户在第三方编辑器中敲下代码需求时,这些工具会在后台将请求伪装成来自Anthropic官方CLI(命令行界面)客户端的流量。

OAuth一种开放标准的授权协议。它允许用户授权第三方应用访问他们存储在其他服务提供商上的信息,而不需要将用户名和密码提供给第三方应用。

平时我们常用的“允许微信、支付宝、抖音授权”,就是OAuth。

套壳工具通过构造了特定的HTTP请求头,让Anthropic的服务器误以为这只是一个普通的个人用户正在使用官方工具进行编程,从而绕过了原本针对API调用的严格计费墙。

这就让用户能以极低的成本享受到Claude的顶级编排能力。

这在Anthropic专注于打磨模型的早期阶段或许是可以容忍的生态繁荣,但当Anthropic决定亲自下场做Cowork时,这些第三方工具就从生态伙伴变成了拦路虎。

这种“伪装”技术的核心不仅仅在于身份的冒用,更在于对速率限制机制的规避。官方工具通常内置了防止滥用的限速器,而第三方套壳工具则通过移除这些限制,允许Agent进行高频次的请求。

对于Anthropic而言,这不仅仅是少收了几块钱的问题,更是一个严重的技术盲区。

Anthropic Claude Code团队成员萨里克·希希帕尔(Thariq Shihipar)在社交媒体上坦言,问题的核心在于遥测数据的缺失。官方客户端会持续向服务器发送诊断信号,帮助公司追踪使用模式、定位Bug以及识别滥用行为。

而第三方工具为了伪装得更像,往往会切断或伪造这层遥测数据,导致Anthropic的自动化滥用检测系统不能识别具体数据是多少,无法准确判断流量的真实来源和性质。

因为在防御系统眼里,所有异常流量都变得面目可疑。所以在这次大规模清洗中,会有部分正常使用的开发者账户遭到误伤,

然而,技术层面的解释往往只是冰山一角,更多的是现实的经济考量。

Anthropic目前的商业模式存在着一种结构性的矛盾:面向C端用户的订阅计划采用的是类似“自助餐”的包月模式,设计初衷是服务于人类的聊天速度和思维停顿;而API服务则是按量计费的“点餐”模式。

第三方套壳工具的存在,本质上是让Agent拿着人类的“自助餐券”进场大吃特吃。

人类需要睡觉、吃饭、思考,但Agent可以不知疲倦地整夜运行编码、测试、调试循环。

根据Anthropic的说法,通过这种漏洞,一个每月仅需200美元的Team账号,理论上可以消耗价值高达10000美元的API资源。套利成本高达50倍。

面对Anthropic的铁腕封禁,开发者社区的反应呈现出两极分化,但更多的是一种无奈的愤怒。

大量习惯了在VS Code或Cursor中无缝调用Claude的程序员发现工作流中断,被迫寻找替代方案。

02

如果说针对第三方散户开发者的封禁是出于反滥用的经济账,那么针对xAI的封锁则是一场赤裸裸的巨头商业战争。

1月8日,一封由xAI联合创始人吴宇怀(Tony Wu)发送的内部全员邮件被媒体曝光。

吴宇怀在邮件中写道:“各位同事,相信很多人已经发现,Cursor中的Anthropic模型已无法响应。据Cursor反馈,这是Anthropic针对所有主要竞争对手实施的新政策。”

这封邮件相当于公开承认马斯克旗下的xAI工程师团队,在日常工作中长期严重依赖竞争对手Anthropic的Claude模型来编写代码。

要知道,这起事件中最具讽刺意味的是,xAI此前已经高调发布了自己的编码模型Grok Code Fast 1,并称其性能优异。

虽然Cursor本身是一个合法的、中立的代码编辑器,不过当xAI的工程师通过Cursor调用Claude来写代码,就相当于告诉所有人,Grok Code Fast 1不如Claude。

理论上,Anthropic此次出手的法律依据是无懈可击的。

根据其商业使用条款第D.4节明确规定:禁止客户利用服务构建竞争产品或服务,包括训练竞争AI模型,同时也禁止逆向工程或复制服务。

更具戏剧性的是,就在封禁事件发生前,马斯克还在X平台上高调预告,xAI将于2月推出全新的“Grok Build”工具,正式进军“Vibe Coding”领域。

他声称这次升级后的Grok Code将支持“单次提示”(One-shot)完成复杂编程任务。

然而,当自家老板在台上画着“拳打Claude”的大饼时,台下的工程师却因为被切断了Claude的访问权限而陷入停工,这种时间点上的巧合,让整场商战多了一层黑色幽默的意味。

尽管xAI刚刚完成了200亿美元的E轮融资,估值飙升至2300亿美元,但情况并不乐观。

根据外媒披露,xAI在2025年第三季度的净亏损高达14.6亿美元,前9个月累计消耗现金78亿美元。这意味着,这家公司平均每天睁眼就要烧掉约2800万美元。

虽然其第三季度营收环比翻倍至1.07亿美元,但这在庞大的算力基建、顶尖人才招募和软件开发成本面前,依然是杯水车薪。

马斯克在投资者电话会议上明确表示,公司的核心重心是快速构建AI代理和软件产品,最终打造一个能自我维持的AI系统,为特斯拉的Optimus人形机器人提供动力。

管理层甚至在内部将这个纯AI软件业务戏称为“Macrohard”(宏硬),意在对标微软

可真实的商战是如此的朴实无华,为了回击Anthropic,xAI的产品主管尼基塔·比尔(Nikita Bier)表示,他们要封禁掉Anthropic的X账号了。

事实上,这并非Anthropic第一次封禁竞争对手。

早在2025年8月,公司就曾撤销了OpenAI对Claude API的访问权限,理由是发现OpenAI正在使用Claude进行GPT-5的基准测试和安全响应测试。

同年6月,AI编程工具Windsurf也遭到了类似的访问限制,当时的背景是有传闻称OpenAI可能收购该公司。

不过Anthropic联合创始人杰拉德·卡普兰(Jared Kaplan)对外宣称限制原因是“计算资源紧张,优先保障长期合作客户”,并否认与OpenAI收购传闻直接相关。

此举导致Windsurf年经常性收入(ARR)从1亿美元降至8200万美元,且Windsurf CEO Varun Mohan公开控诉Anthropic通知时间过短(不到 5 天),影响用户服务。

03

造成这次封禁的核心原因,是Anthropic不得不向现实低头。

Anthropic正处于上市前的关键冲刺期。市场传闻其正在进行一轮目标融资额达100亿美元的交易,投前估值高达3500亿美元。

在如此高昂的估值压力下,公司必须向投资者证明其盈利模式的可持续性。

将那些高频次的开发者从廉价的订阅模式逼迫到按量付费的API模式,是保护利润率、提升营收质量的必要手段。

虽然这在短期内会得罪部分用户,但从长远来看,这是将“用户量”变现的必经之路。

腾讯首席AI科学家姚顺雨在前几天提到一个观点。他说,Claude在C端大众用户中的感知或许并不强烈,甚至不如ChatGPT普及,但在B端,尤其是程序员群体中,它几乎是不可替代的。

姚顺雨提到,Claude Code正在重塑计算机行业的做事方式,人已经不再写代码了,而是用自然语言与电脑交流,甚至Claude项目95%的代码由自身完成。

这种革命性的变化是Anthropic不可替代的核心原因,也正因于此,他们才敢于进行大规模的封禁。

然而,就在Anthropic忙于清理门户的时候,DeepSeek可能会迎来他们弯道超车的机会。

DeepSeek预计将在2月中旬发布其新一代模型DeepSeek-v4。

内部泄露的测试数据显示,这款新模型在编程任务上的表现,据称已经超越了目前的行业标杆Claude 和ChatGPT。

如果这一消息属实,那么Anthropic费尽心机筑起的商业围墙,可能会面临被击碎的风险。毕竟,如果有一个性能更强、价格更低的开源模型出现,估计就没什么会使用昂贵的闭源模型了。

除了技术突围,DeepSeek背后雄厚的资金实力更为其“修路”战略提供了底气。

创始人梁文锋执掌的对冲基金“幻方量化”(High-Flyer)在2025年业绩爆发,平均回报率高达56.6%,在管理规模超14亿美元的中国量化基金中高居第二。

得益于2024年从市场中性策略向纯多头策略的转型,该基金在行业平均30.5%的回报率中脱颖而出。按其超100亿美元的管理规模及早已停止接受外部资金的现状估算,梁文锋个人掌控的年收入可能超过7亿美元。

这远超DeepSeek此前报道的不足600万美元模型预算,这就代表DeepSeek其拥有充足的弹药库来支付昂贵的GPU算力和顶尖人才成本,足以支撑起一场持久的AI军备竞赛。

就在封禁事件发酵的几乎同一时间,OpenAI迅速与OpenCode达成合作,允许其通过OAuth直接接入ChatGPT Plus/Pro的订阅权益。

OpenAI Codex工程负责人更是高调背书,宣扬其生态系统的“开放性”。

OpenAI目前的策略更偏向于“平台化”和“生态化”,通过与OpenCode等开源工具合作,甚至默许一定程度的“薅羊毛”,来换取市场份额的绝对垄断和生态系统的粘性。

Anthropic则选择了类似苹果的“围墙花园”策略,通过Claude Code官方客户端收束流量,确保核心体验的可控性和商业利益的最大化。

这种战略分歧没有绝对的对错,只反映了处于不同发展阶段和市场地位的公司的不同考量。

目前的AI编程领域正处于一个微妙的临界点:一方面是巨头们为了商业利益开始“跑马圈地”、筑高墙;另一方面是技术迭代的洪流不断冲刷着旧的堤坝。

对于开发者而言,Anthropic的“封禁”或许只是一个小插曲,真正的风暴将随着下一代模型的发布而到来。在这个日新月异的赛场上,没有永远的护城河,只有永远的军备竞赛。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10