解析理想汽车“软硬协同设计定律”:如何用数学语言打通芯片与算法的任督二脉?

格隆汇
Mar 04

当整个汽车行业还在为芯片算力军备竞赛而狂热时,一个根本性的悖论正悄然浮出水面:算力越高,实际效能真的越高吗?或者说,砸下重金采购的顶级芯片,究竟被榨出了几成功力?

近日,当理想汽车携其端侧大模型“软硬协同设计定律”走入公众视野时,它揭开的不仅是一项技术突破,更是一场关于AI底层逻辑的范式革命。这一定律由理想汽车基座模型MindVLA团队与国创决策智能技术研究所联合研发,它试图用数学的语言,打通芯片与算法之间的“任督二脉”。

这一定律的意义,远不止于让理想汽车自家的智能辅助驾驶变得更顺畅。它向行业投射出一个更深层的信号——当前的中国科技企业,在技术创新上实现了从“跟随者”向“定义者”的悄然转身。

一、算力悖论:当暴力堆料撞上物理天花板

在智能辅助驾驶的演进史上,过去十年几乎可以被概括为一句话:算力崇拜。车企发布会上,TOPS成了比马力更时髦的参数指标,动不动就是几百TOPS、上千TOPS。消费者也渐渐形成一种朴素认知——算力越高,车就越聪明。

但事实真的如此吗?

理想汽车在基于NVIDIA Orin/Thor平台的早期实践中发现,即便搭载了行业最顶级的车载芯片,在实际部署大语言模型时,其真实释放的性能往往大打折扣。

这不是理想汽车一家遇到的问题。英伟达苹果微软谷歌等全球科技巨头都在为此头疼。

传统的研发模式中,芯片工程师埋头追求更高的峰值算力,算法工程师则疯狂堆叠模型参数,两者在各自的轨道上狂奔。结果就是:软件与硬件在最后集成阶段才仓促碰面,彼此妥协、相互迁就,大量算力被闲置,大量功耗被浪费。这种“软硬割裂”的研发方式,在全场景智能辅助驾驶对算力需求呈指数级攀升的今天,正变得愈发难以为继。

也正是这种“软硬割裂”的痛感让理想汽车意识到,如果继续沿着“堆料”的老路走下去,永远只能跟在别人身后吃灰。真正的解法,不在芯片厂商的下一代产品路线图里,而在底层研发逻辑的重构之中。

基于此,理想汽车MindVLA团队与国创决策智能技术研究所选择了一条更难的路:他们不再满足于用好别人的芯片,而是试图从数学层面回答一个根本性问题——芯片与算法究竟该如何协同,才能让有限资源发挥最大效能?

研究团队将损失函数扩展法则与Roofline性能建模相结合,最终提炼出一套可量化、可预测的软硬协同数学框架。通俗地说,这一定律把芯片的物理特性和算法的计算需求同时“翻译”成数学语言,输入芯片参数和模型需求,公式便能自动输出最优的软硬配比方案。这相当于为协同设计建立了“通解公式”,而非过去那种依赖工程师经验反复试错的“特解摸索”。

在这套理论框架下,六大核心发现浮出水面,每一项都在颠覆行业固有的认知。例如,研究揭示,在车载典型的批处理大小为1的场景下,MOE稀疏架构将100%主导效率前沿。这意味着未来车载芯片必须原生支持稀疏计算,而非简单堆砌密集矩阵乘算力。再如,内存带宽和缓存效率往往比理论TOPS更能决定系统实际性能,“宽而浅”的芯片架构才是车载场景的最优解。更有意思的是,传统Transformer中沿用了多年的4倍FFN扩展比,在车载场景下被证明是低效的,这直接挑战了芯片矩阵乘单元与激活函数单元的配比设计。

这些发现凝聚成一个核心结论:没有通用芯片,只有场景最优芯片。最优架构强烈依赖于具体硬件参数,这从根本上证明了“算法定义芯片”的必要性。只有深度理解上层算法需求,才能设计出最高效的专用计算架构。

这项研究的深远意义,在于它为中国企业在AI基础理论层面赢得了一席话语权。它不是对西方技术路线的修修补补,而是一种原生于中国产业实践的方法论突破。当理想汽车与国内高校持续产出顶会论文时,我们看到的不只是企业研发实力的证明,更是产学研深度融合的“中国智慧”在 global AI 舞台上的一次集体亮相。

、从理论到实践:研发投入浇灌出的技术密林

理论的价值,最终要落地为产品的温度。

2026年2月,全新一代理想L9正式亮相,搭载两颗5纳米制程的马赫100芯片,总算力达2560TOPS。但更具说服力的不是这个峰值数字,而是“有效算力”的概念。由于采用数据流架构,马赫100在运行VLA大模型时的单颗有效算力达到英伟达Thor-U的三倍,双芯协同时的整体有效算力更是达到Thor-U的五至六倍。

李想回顾,理想自2022年启动芯片自主研发时,团队便预判行业将在2025年后全面迈入“自研算法与自研算力深度融合”的软硬一体化发展阶段。马赫100芯片的推出,正是这一长期技术战略落地的首个关键成果。

如果理想仅仅将这些技术用于自家产品升级,它或许只是一次成功的企业级技术突破。但真正值得深思的是,这一定律背后所折射出的中国科技企业创新姿态的转变。

回顾中国汽车产业的发展历程,从最初的技术引进、合资合作,到后来的消化吸收、局部创新,再到如今在新能源和智能辅助驾驶领域的全面突围,中国企业走过了一条漫长的追赶之路。但在AI基础理论层面,能够为全行业贡献通用科学方法论的案例,依然屈指可数。

理想汽车此次联合国创决策智能技术研究所发布的这一定律,恰恰填补了这一空白。这项研究不是针对某个具体问题的补丁式解决方案,而是一套具有普适意义的数学框架,可以为整个端侧AI领域提供研发指导。

此外,还有一点不容忽视。软硬协同设计定律的诞生,离不开理想汽车多年来对研发投入的持续加码。数据显示,2025年,理想预计研发投入达到120亿元,近八年累计研发费用预计将超过468亿元。即便面对激烈的市场竞争,理想的研发费用依然持续领跑新势力车企。这些数字背后,是一个朴素的认知:只有从最基础的研究做起,才能真正掌握技术迭代的主动权。

如今,这种投入正在转化为可见的成果。2021年至2025年11月,理想汽车围绕BEV、端到端模型、VLA等领域发表近50篇论文,被引用超过2500次,其中32篇论文中稿顶会。更重要的是,理想选择将这些研究成果开源——DriveVLM、DIVE、3DRealCar等项目在GitHub上已获得超过3200名开发者的收藏或调用。这种开放姿态,正在为中国智能驾驶产业构建一个良性的技术生态。

2025年3月,理想星环OS正式宣布面向全行业开源,涵盖AI计算系统、智能实时系统、通信中间件和安全系统。截至2025年9月,已有超过30家企业及社区加入星环OS生态。按照理想的测算,这一开源系统每年可为汽车行业节省100亿至200亿元的重复研发投入。

开源的背后,是一种更深层的战略思考。在智能汽车这个复杂的赛道上,没有一家企业能够包揽所有创新。只有当更多的开发者、更多的企业参与到同一套技术体系的共建中,整个产业的创新节奏才能加快。

这不再是企业层面的商业博弈,而是一种产业责任感的体现——当中国企业开始主动输出基础设施、贡献通用方法论,全球AI竞赛的叙事,已然被改写,中国企业正在成为游戏规则的共同制定者。

、结语

回到文章开头的问题:算力越高,实际效能真的越高吗?

理想汽车给出的答案是:算力是效能的根基,但协同才是决定效能兑现程度的天花板。没有足够的芯片算力,再精妙的算法也只是纸上谈兵;但若只有算力堆砌而缺乏软硬件的深度协同,再高的账面数字也只能在闲置与损耗中打了折扣。当芯片与算法能够从设计之初就“商量着办事”,当数学定律取代经验调参,智能汽车的进化路径便从堆料模式切换到了精算模式。

软硬协同设计定律的意义,或许要放到更长的时间维度里去理解。它不仅为今天的智能辅助驾驶提供了方法论,更为未来的具身智能、空间机器人等更广泛的AI应用,铺下了一块理论基石。当人工智能开始走出数据中心、走进物理世界,如何让算法在有限的算力上高效运行,将成为所有端侧智能面临的共同挑战。而理想今天所做的工作,正是在为这个未来准备“通用语法”。

从跟随者到定义者,这条路注定艰难。但当中国车企开始用数学定律而非营销话术来定义智能的高度,这场全球AI竞赛的叙事,已然被改写。理想汽车的故事证明,中国科技企业不仅有实力参与全球竞争,更有智慧为全行业贡献通用的科学方法论,这或许正是“中国智慧”在全球AI浪潮中最硬核的表达。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10