DeepSeek流量暴跌?AI大模型全球霸主离奇遇冷,外媒曝出真相

市场资讯
04 Jul

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

新智元报道

编辑:Aeneas 好困

【新智元导读】曾以低价高性能震撼市场的DeepSeek,为何在自家平台遇冷,市场份额下滑?背后隐藏的“Token经济学”和这场精心策划的战略转移,正悄然改变着AI的价值链与分发模式。

最近,全世界的大厂都在蠢蠢欲动了!

GPT-5、Grok 4,甚至Claude,都已经纷纷有了消息,一场恶战仿佛就在眼前!

DeepSeek这边,似乎也有新动静了。

就在昨天,一个疑似DeepSeek的新模型现身LM Arena。

也有人猜测,这个模型更可能是DeepSeek V4,而DeepSeek R2会稍后发布。

套路很可能和之前是一样的,先在第一个月发布V3,然后在下个月发布R1。

所以,曾经轰动全球AI圈的中国大模型DeepSeek R1,如今怎样了?

到今天为止,DeepSeek R1已经发布超过150天了。

当时一经问世,它就以OpenAI同等级的推理能力和低90%的价格而迅速出圈,甚至一度撼动了西方的资本市场。

可是如今,它在用户留存和官网流量上却双双遇冷,市场份额持续下滑。

DeepSeek就这样昙花一现,红极一时后迅速衰落了?

其实不然,在这背后,其实隐藏着另一条增长曲线——

在第三方平台上,R1已经成爆炸性增长,这背后,正是折射出AI模型分发与价值链的悄然变革。

SemiAnalysis今天发布的这篇文章,挖出了不少一手的内幕信息。

DeepSeek,盛极而衰?

DeepSeek发布后,消费者应用的流量一度激增,市场份额也随之急剧上升。

为此,SemiAnalysis做出了下面这份统计曲线。

当然,他们也承认,由于中国的用户活动数据难以追踪,且西方实验室在中国无法运营,下面这些数据实际上低估了DeepSeek的总覆盖范围。

不过即便如此,曾经它爆炸性的增长势头也未能跟上其他AI应用的步伐,可以确定,DeepSeek的市场份额此后已然下滑。

而在网络浏览器流量方面,它的数据就更为惨淡了:绝对流量一直在下降,但其他顶尖模型的用户数却噌噌飞涨,十分可观。

不过,虽然DeepSeek自家托管模型的用户增长乏力,但在第三方平台那里,就完全是冰火两重天了。

可以看到,R1和V3模型的总使用量一直在持续快速增长,自R1首次发布以来,已经增长将近20倍!

如果进一步深挖数据,就会发现:只看由DeepSeek自己托管的那部分Token流量,那它在总Token中的份额的确是逐月下降的。

那么,问题来了:为何在DeepSeek模型本身越来越受欢迎、官方价格非常低廉的情况下,用户反而从DeepSeek自家的网页应用和API流失,转向了其他开源提供商呢?

SemiAnalysis点出了问题关键——

答案就在于“Token经济学”,以及在平衡模型服务的各项KPI时所做的无数权衡。

这些权衡意味着,每个Token的价格并非一个孤立的数字,而是模型提供商根据其硬件和模型配置,在对各项KPI进行决策后得出的最终结果。

Token经济学基础

我们都知道,Token是构成AI模型的基本单元。AI模型通过读取以Token为单位的互联网信息进行学习,并以文本、音频、图像或行为指令等Token形式生成输出。

所谓Token,就是像“fan”、“tas”、“tic”这样的小文本片段。LLM在处理文本时,并非针对完整的单词或字母,而是对这些片段进行计数和处理。

这些Token,便是老黄口中数据中心“AI工厂”的输入和输出。

如同实体工厂一样,AI工厂也遵循一个“P x Q”(价格 x 数量)的公式来盈利:其中,P代表每个 Token的价格,Q代表输入和输出Token的总量。

但与普通工厂不同,Token的价格是一个可变参数,模型服务商可以根据其他属性来设定这个价格。

以下,就是几个关键的性能指标(KPI)。

指模型生成第一个Token所需的时长。这也可以理解为模型完成“预填充”阶段(即将输入提示词编码到KVCache中)并开始在“解码”阶段生成第一个Token所需的时间。

指生成每个Token的速度,通常以“每个用户每秒可生成的Token数量”来衡量。

当然,有些服务商也会使用其倒数——即生成每个输出Token的平均间隔时间(Time Per Output Token, TPOT)。

人类的阅读速度约为每秒3-5个单词,而大部分模型服务商设定的输出速度约为每秒20-60个Token。

指在模型“遗忘”对话的早期部分、并清除旧的Token之前,其“短期记忆”中能够容纳的Token数量。

不同的应用场景需要大小各异的上下文窗口。

例如,分析大型文档和代码库时,就需要更大的上下文窗口,以确保模型能够对海量数据(维权)进行连贯的推理。

对于任何一个给定的模型,你都可以通过调控这三大KPI,设定出几乎任何价位的单位Token价格。

因此,单纯基于“每百万Token的价格”($/Mtok)来讨论优劣,并没有什么意义,因为这种方式忽略了具体工作负载的性质,以及用户对Token的实际需求。

DeepSeek的策略权衡

所以,DeepSeek在R1模型服务上采用了何种Token经济学策略,以至于市场份额会不断流失?

通过对比延迟与价格的关系图,可以看到,在同等延迟水平上,DeepSeek的自有服务已不再是价格最低的选择。

事实上,DeepSeek之所以能提供如此低廉的价格,一个重要原因在于,用户等待数秒后,才能收到模型返回的第一个Token。

相比之下,其他服务商的延迟会短得多,价格却几乎没有差别。

也就是说,Token消费者只需花费2-4美元,就能从Parasail或Friendli这类服务商那里,获得近乎零延迟的体验。

同样,微软Azure的服务价格虽比DeepSeek高2.5倍,但延迟却减少了整整25秒。

这样看来,DeepSeek现在面临的处境就尤为严峻了。

原因在于,现在几乎所有托管R1 0528模型的实例都实现了低于5秒的延迟。

沿用同一图表,但这次我们将上下文窗口的大小用气泡面积来表示。

从中可以看到,DeepSeek为了用有限的推理算力资源来提供低价模型,所做的另一项权衡。

他们采用的64K上下文窗口,几乎是主流模型服务商中最小的之一。

较小的上下文窗口限制了编程等场景的发挥,因为这类任务需要模型能够连贯地记忆代码库中的大量Token,才能进行有效推理。

从图表中可见,若花费同样的价格,用户可以从Lambda和Nebius等服务商那里获得超过2.5倍的上下文窗口大小。

如果深入硬件层面,在AMD和英伟达芯片上对DeepSeek V3模型的基准测试,就可以看清服务商是如何确定其“每百万Token价格”($/Mtok)的——

模型服务商会通过在单个GPU或GPU集群上同时处理更多用户的请求(即“批处理”),来降低单位Token的总成本。

这种做法的直接后果,就是终端用户需要承受更高的延迟和更慢的吞吐量,从而导致用户体验急剧下降。

之所以DeepSeek完全不关心用户的体验到底如何,实际上是一种主动作出的战略选择。

毕竟,从终端用户身上赚钱,或是通过聊天应用和API来消耗大量Token,并不是他们的兴趣所在。

这家公司的唯一焦点就是实现AGI!

而通过采用极高批处理方式,DeepSeek可以最大限度地减少用于模型推理和对外服务的计算资源消耗,从而将尽可能多的算力保留在公司内部,从而用于研发。

另外还有一点:出口管制也限制了中国AI生态系统在模型服务方面的能力。

因此,对DeepSeek而言,开源就是最合乎逻辑的选择:将宝贵的计算资源留作内部使用,同时让其他云服务商去托管其模型,以此赢得全球市场的认知度和用户基础。

不过,SemiAnalysis也承认,这却并没有削弱中国公司训练模型的能力——无论是腾讯阿里百度,还是小红书最近发布的新模型,都证明了这一点。

Anthropic也一样?

和DeepSeek一样,Anthropic的算力也是同样受限的。

可以看到,它产品研发的重心显然放在了编程上,而且已经在Cursor等应用中大放异彩。

Cursor的用户使用情况,就是评判模型优劣的终极试金石,因为它直接反映了用户最关心的两个问题——成本与体验。

而如今,Anthropic的模型已雄踞榜首超过一年——在瞬息万变的AI行业里,这个时长仿佛已经如十年。

而在Cursor上大获成功后,Anthropic立马顺势推出了Claude Code,一款集成在终端里的编程工具。

它的用户量一路飙升,将OpenAI的Codex模型远远甩在身后。

为了对达Claude Code,谷歌也紧急发布了Gemini CLI。

它与Claude Code功能相似,但因为背靠谷歌TPU,却有非凡的算力优势——用户能免费使用的额度,几乎无上限。

不过,尽管Claude Code的性能和设计都十分出色,价格却不菲。

Anthropic在编程上的成功,反而给公司带来了巨大压力——他们在算力上已经捉襟见肘。

这一点,在Claude 4 Sonnet的API输出速度上就已经体现得淋漓尽致。自发布以来,它的生成速度已下降了40%,略高于每秒45个Token。

背后的原因,也和DeepSeek如出一辙——为了在有限的算力下处理所有涌入的请求,他们不得不提高批处理的速率。

此外,编程类的使用场景往往涉及更长的对话和更多的Token数量,这就进一步加剧了算力的紧张状况。

无论是何种原因,像o3和Gemini 2.5 Pro这类对标模型的运行速度要快得多,这也反映出OpenAI和谷歌所拥有的算力规模要庞大得多。

现在,Anthropic正集中精力获取更多算力,已经和亚马逊达成了协议。它将获得超过五十万枚Trainium芯片,用于模型训练和推理。

另外,Claude 4模型并非在AWS Trainium上预训练的,而是在GPU和TPU上训练。

速度劣势可由效率弥补

Claude 的生成速度虽然暴露了其算力上的局限,但总体而言,Anthropic的用户体验(UX)要优于 DeepSeek。

这意味着,尽管生成速度不占优,用户实际感受到的端到端响应时间反而显著缩短了。

值得一提的是,在所有领先的推理模型中,Claude的总输出Token量是最低的。

相比之下,Gemini 2.5 Pro和DeepSeek R1 0528等模型的输出内容,“啰嗦”程度都是Claude的三倍以上。

Token经济学的这一方面揭示出,服务商正在从多个维度上改进模型,其目标不再仅仅是提升智能水平,而是致力于提高“每单位Token所承载的智能”。

随着Cursor、Windsurf、Replit、Perplexity等一大批“GPT套壳”应用(或称由AI Token驱动的应用)迅速流行并获得主流市场的认可。

我们看到,越来越多的公司开始效仿Anthropic的模式,专注于将Token作为一种服务来销售,而不是像ChatGPT那样以月度订阅的方式打包。

参考资料:

https://semianalysis.com/2025/07/03/deepseek-debrief-128-days-later/

海量资讯、精准解读,尽在新浪财经APP

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10