国内领先AI企业深度求索(DeepSeek)于5月28日低调开源R1最新版本(0528版),在未发布官方说明的情况下即开放模型下载。尽管细节尚未公开,但开发者社区已迅速展开测试。据知名代码评测平台Live CodeBench数据显示,新版R1编程能力已媲美OpenAI最新o3高版本模型,风格表现亦高度接近。
小版本大升级:逻辑、长文本、代码全面强化
本次更新是DeepSeek两个月来首次模型迭代。据官方微信群公告,R1已完成“小版本试升级”,重点优化了三大能力:
语义理解精准性
复杂逻辑推理能力
长文本处理稳定性
开发者实测反馈强烈:“理解能力明显跃升,连激活参数都能用交互动画直观呈现”,“编程能力太吓人——1000行代码一次生成零错误”,更有测评认为其编程实力已可对标“新晋编程之王”Claude 4。
性价比神话持续 成本仅为竞品1/277
回溯DeepSeek技术路线,今年3月开源的DeepSeek-V3-0324模型曾以非推理架构超越Claude-3.7-Sonnet,数学与代码评测甚至超过GPT-4.5。更关键的是其极致性价比:输入成本仅为Claude的1/11、GPT-4.5的1/277,且完全开源商用免费。
而年初发布的R1初代更引发全球AI行业震动——不仅性能超越OpenAI等西方对手,且开发成本仅数百万美元,采用低版本英伟达芯片实现突破,直接触发全球科技股震荡。
市场焦点转向R2:万亿参数+国产算力引期待
证券时报指出,当前业界最关注的仍是传闻中的R2模型。多方消息显示:
计划采用混合专家模型(MoE),参数量达1.2万亿(较R1提升80%)
推理成本较GPT-4骤降97.4%
全程使用昇腾910B芯片训练,未采用英伟达方案
算力利用率达82%,整体性能达A100集群91%
尽管4月DeepSeek与清华大学联合发布突破性论文《自我原则点评调优》(SPCT),被视作R2技术前兆,但公司始终未确认发布时间。此次R1小升级后,社交媒体涌现猜测:“此时优化R1是否意味着R2仍需长期打磨?”
目前新版R1已登陆官网、APP及小程序,API接口维持不变。业界正密切关注:这究竟是R2登场前的技术铺垫,还是中国大模型持续进化的又一里程碑?
Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.