中信建投:GPT-5发布与华为CANN开源有望带动AI应用发展

智通财经
Aug 11, 2025

智通财经APP获悉,中信建投发布研究报告称,GPT-5正式发布,在长文本记忆、幻觉率的降低和推理效率优化,为AI应用的生长提供了更好的土壤。后续可期待Google、Anthropic的更新和国内模型的跟进,以及基模优化下AI应用代币化的持续落地。华为全面开源CANN生态,针对不同层级开发者差异化开放,大幅提高开发效率,有望对标CUDA加速追赶。1)利好有数据、有客户、有场景的软件企业,AI产品有望带动公司ARPU提升和项目单价上升;2)模型私有化需求增加,利好一体机、超融合和B端服务外包企业;3)市场成交量持续维持高位,互联网金融标的有望受益。

中信建投主要观点如下:

GPT-5正式发布,刷新多项能力SOTA。2025年8月8日凌晨1点,OpenAI正式发布GPT-5,包含GPT-5、GPT-5-Mini、GPT-5-Nano三个版本。性能方面,GPT-5刷新多项基准测试Sota,尤其在数学、编程、视觉理解和健康领域表现突出,并在大模型竞技场LMArena上各维度取得综合排名第一的成绩。

数学:OpenAI认为使用工具的Benchmark得分不应该与不具备工具访问能力的模型进行比较,而GPT-5在AIME 2025 no tools/Python分别得分94.6%/100%,一定程度反映其对工具的有效利用。同时,GPT-5在专家级问题上表现优异,在HMMT(麻省理工学院数学锦标赛)最高获得100%的得分;GPQA Diamond(博士级科学问题)最高得分89.4%;HLE(跨学科专家问题)得分42.0%。

编程:GPT-5在SWE-bench Verified(With thinking)得分74.9%,略超Claude Opus 4.1的74.5%,取得新的Sota。同时,在LMArena 的各类能力得分中,GPT-5在WebDev上得分1479分,大幅领先排名第二的Gemini-2.5-Pro(1403分)。

多模态:GPT-5在视觉理解方面MMMU(With thinking)得分84.2%(高于gemini 2.5 pro的81.7%,但二者在LMArena得分相同,均为1253分且排名第一),在MMMU-Pro、VideoMMMU等Benchmark上较前代模型亦有不同程度的提升。

场景: 教育方面,GPT-5可在几分钟之内生成数百行代码,生成互动内容以解释复杂概念;几分钟时间写出一个法语学习网页,帮用户练发音,且语音语调较前代更加自然;医疗为GPT-5重点应用场景,OpenAI称其为迄今为止最好的健康模型;在涵盖法律、物流、销售和工程等 40 多个职业的具有经济意义的任务上,GPT-5在47.1%的场景中达到了与专家相当或更高的水平。

GPT-5上下文窗口达400K,可通过实时路由器自行决定适用模型。初基准测试外得分高外,GPT-5还是带实时路由器的统一模型,可以根据用户对话类型、复杂性、工具需求和明确意图快速决定使用哪个模型(类似混合推理模型中自己决定快/慢思考)。同时,GPT-5的上下文窗口提升至400K tokens(约30万字,较o3翻倍),“Memory”功能将新增对Gmail和谷歌日历的访问权限(下周推出,先向专业用户开放,随后是Plus/团队/企业用户),可根据用户偏好帮助用户规划日程。

幻觉率显著降低,成本优化明显。在ChatGPT生产环境流量的匿名测试中,GPT-5的事实错误率比4o降低约 45%;启用推理功能时,错误率比o3降低约 80%。在开放性事实准确性基准 LongFact和FActScore测试中,GPT-5 thinking的幻觉率比o3减少约六倍;此外,GPT-5进一步降低了模型过于自信的问题,例如在对不存在图像的多模态问题回复欺骗率从o3的86.7%%降低至9%。

而在定价&成本方面,GPT-5全用户可用,Plus用户用量更高,Pro用户可使用带思考能力的GPT-5-Pro。GPT-5每百万tokens输入$1.25(缓存命中$0.125),输出$10,与Gemini 2.5Pro持平;Mini和Nano则为GPT-5的1/5和1/25。此外,GPT-5在推理效率亦有提升,部分任务表现优于o3,但输出token减少了 50-80%。

华为CANN全面开源,加速生态完善。8月5日,在升腾计算产业发展峰会上,华为轮值董事长徐直军宣布,华为升腾硬件使能CANN全面开源开放,Mind系列应用使能套件及工具链全面开源,支持用户自主的深度挖潜和自定义开发,加速广大开发者的创新步伐,让升腾更好用、更易用。

具体而言,CANN(神经网络异构计算架构)是由多种技能栈和算子加速库等组成的软件生态系统,能把上层AI训练框架(如PyTorch、TensorFlow、MindSpore等)和底层升腾芯片连接起来,使开发者不用关心芯片细节就能调用底层算力,从而加速升腾生态建设。

针对不同层级开发者差异化开放,大幅提高开发效率。升腾CANN针对不同技术层级的开发者推出了差异化开放策略。比如在算法创新层,开发者可基于业务场景进行“魔改式”创新;在系统优化层,CANN开放了190多个底层接口,得以释放硬件的原子级能力。在编译生态层,通过开放毕升编译器的AscendNPU IR接口,开发者可以在接入Triton后直接使用Python语法编写高性能算子,底层硬件差异被完全抽象化。

而在效率方面,CANN通过对计算、内存、通信的优化提高效率。计算层面,升腾CANN针对MoE大模型训练场景推出了超级算子MLAPO,将MLA前处理耗时从行业平均109ms压缩至45ms,在金融风控模型、广告推荐系统中实现了20%以上的端到端性能提升,打破Transformer架构的算力瓶颈;内存层面,多重地址映射技术可以实现内存碎片的自动化拼接利用,解决动态shape场景的“内存碎片化”难题,让京东商品搜索、腾讯短视频推荐等业务场景的内存利用率提升了20%以上,突破了单卡可承载并发请求量行业极限。在分布式训练领域, NPUDirect通信算法将传统RDMA通信所需的3对同步精简为1次原子操作,让科大讯飞语音大模型的跨机通信时延下降了90%,走通了万卡级分布式训练可行性路径。

根据升腾官方数据,6年来,有超过60万开发者了解CANN、使用CANN、赋予CANN创新活力,在升腾CANN持续推进开放,以及产业各方开发者、企业积极参与之下,CANN生态正在快速成长。目前CANN的算子认证开发者已经超过了6000人。随着CANN的进一步开源,升腾CANN生态有望进一步完善,对标CUDA加速追赶,并为基于国产算力的AI应用开发提供了更好的基础。

总结:GPT-5正式发布,在长文本记忆、幻觉率的降低和推理效率优化,为AI应用的生长提供了更好的土壤。后续可期待Google、Anthropic的更新和国内模型的跟进,以及基模优化下AI应用代币化的持续落地。华为全面开源CANN生态,针对不同层级开发者差异化开放,大幅提高开发效率,有望对标CUDA加速追赶,同样为国内AI应用开发提供了更好的基础。

海外GPT-5推出,降低幻觉的同时,提升推理性能,降低成本。1)利好有数据、有客户、有场景的软件企业,AI产品有望带动公司ARPU提升和项目单价上升。2)模型私有化需求增加,利好一体机、超融合和B端服务外包企业。

风险因素:(1)宏观经济下行风险;(2)应收账款坏账风险;(3)行业竞争加剧;(4)国际环境变化影响.

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10