AI能為汽車帶來哪些改變?何小鵬:未來一家AI汽車公司年研發投入至少500億元

時代週報
09/04

  近日,在《羅永浩的十字路口》視頻播客中,何小鵬拋出了一組驚人的數字:未來一家AI汽車公司的年研發投入至少需500億元,其中約300億元可能用於AI技術。

  對一家造車新勢力而言,這樣的數字既像是藍圖,也像是一場押注。300億元,幾乎相當於一家中小型車企一年的營收,卻要投向一個邊界尚未清晰的賽道。

  過去,車企研發的核心在於發動機、變速箱和底盤,如今算法、算力和數據成爲不能忽視的因素。AI不再只是語音助手或自動泊車的附屬功能,而是被推上了產業重構的中心舞臺。

  東吳證券研報指出,未來5年汽車將迎來智能化時代,智能汽車不是簡單的智能手機複製,或將成爲AI時代最重要終端之一。

  中國信通院的報告同樣顯示,AI 技術正全面融入(汽車)研發設計、用戶運營、座艙體驗等核心價值域,構建業務智能化升級支柱。

  何小鵬此前曾喊話,小鵬汽車的目標是“成爲面向全球的AI汽車公司”。而在資本市場與產業鏈的交織中,重金投入背後尚有一個未解的問題:AI真正能爲汽車帶來什麼?

  智能座艙:AI大模型的新戰場

  沙利文聯合頭豹研究院發佈的《AI賦能千行百業白皮書》顯示,2025年3月,全國已有451個生成式人工智能服務完成備案,其中超80%爲垂直領域定製化解決方案,僅19%爲通用模型,標誌着AI應用正從“通用能力”向“場景化落地”深度演進。

  汽車產業正是這波演進的前線:用戶需求足夠高頻、數據閉環天然可得、硬件更新週期與軟件持續迭代可以解耦,“座艙”因此成爲最先跑通商業與體驗閉環的入口。

  “AI作爲通用技術,可以在多個維度賦能汽車產業。”北方工業大學汽車產業創新研究中心主任紀雪洪對時代週報記者表示。在他看來,L4級自動駕駛是產業最關注的方向,而在座艙裏,AI的應用已經開始改變用戶體驗。如理想i8搭載的智能體功能,正是通過AI來優化交互、提升場景化服務,讓座艙成爲AI落地的重要載體。

  這一趨勢已經在車企層面顯現。2025年,隨着DeepSeek大模型走紅,吉利東風廣汽上汽長城、奇瑞、比亞迪等頭部車企密集宣佈與其合作,目標直指座艙智能化的重構。它不僅僅是一次功能“升級”,而且讓座艙從執行命令的工具,轉向能主動理解與陪伴的夥伴。

  中國信通院報告認爲,AI重新定義了人與座艙的互動本質。端到端優化的大模型技術顯著降低了語音交互延遲,並能更準確地理解和執行復雜的多意圖指令。強大的場景引擎協調艙內各系統,基於情境(如目的地、電量)和用戶狀態(如情緒識別)提供主動、連貫的服務。同時,大模型能力拓展至豐富的服務生態,包括自然對話、內容創作、信息獲取及用車幫助等。

  “原來的語音助手模式比較固定,依賴有限的指令集,給人的感覺更像是‘我說他做’的冷冰冰的機器人。”在2025沙利文新投資大會上,四維智聯CEO楊賴土接受時代週報記者採訪時表示,有了AI大模型加持後,智能助手會變得更智能,能更容易理解人的指令及背後的意圖,還會結合車內外環境、人的狀態、天氣、位置等多模態信息綜合判斷,給出更擬人化、有情感的反饋。

  他進一步指出,除了執行指令,智能助手還能主動感知環境變化,給出車輛調整建議或軟件優化方案,甚至提供情感陪伴,成爲更智能的夥伴。

  但智能座艙的演進並非一帆風順。在新能源汽車業界,“冰箱、空調、彩電”一度成爲發佈會上的熱詞,也讓中控屏變成功能菜單的集市。億歐智庫指出,座艙中控屏上堆滿各種功能選項,讓人眼花繚亂,這不僅提高了用戶的使用難度,也阻礙了用戶體驗的提升。

  多模態AI大模型的應用爲智能座艙帶來新的解決方案。它通過更簡單、流暢的人車交互方式,將多種功能進行統一調度和管理。用戶無需逐個操控各個功能,只需與AI簡單交互即可滿足需求。

  在楊賴土看來,智能座艙最終會從APP堆疊,演化成一個AI驅動的“大腦”。用戶與座艙的交互形式也會隨之變化——更多依賴語音,輔以主動提醒和輕量化的屏幕提示,而不是像目前的大段文字或唸白。

  此外,楊賴土認爲,其實智能座艙每個場景、每個功能背後都會有AI加持,比如導航、音樂、娛樂等。隨着輔助駕駛能力增強,司機投入開車的精力減少,就能通過汽車這一“移動空間”連接智能家居、手機、互聯網信息等,形成新的生活方式。

  或大幅降低物理測試成本

  在業內看來,AI技術也正深度革新汽車研發流程。它使用生成式算法,依據設計目標和物理參數自動創建設計方案並進行優化。高度逼真的虛擬仿真平臺,可以模擬複雜環境以大幅減少物理測試成本。

  在深信科創創始人楊子江看來,虛擬仿真並不是新鮮詞。“早在五十年前,汽車廠商就已經在用仿真技術。比如做車輛碰撞實驗,總不能每次都真車相撞。當時的仿真更多是聚焦車輛自身的動力學特性。”他向時代週報記者說道。

  但到了自動駕駛和輔助駕駛時代,仿真的內核被徹底改寫。過去是模擬“車”,如今是模擬“世界”。

  楊子江舉例稱,假如等算法開發完、車子造出來,再推到道路上去測試,成本幾乎無法承受。軟件研發有一個規律——每個階段沒發現的錯誤,到了下一個階段修復成本會以十倍遞增。假如等兩年後車造好後,纔回過頭修復現在算法裏的漏洞,整個項目可能就要推倒重來。

  因此,在一輛車還沒有量產之前,虛擬仿真就能讓工程師把算法丟進一個模擬的城市中,測試它如何應對複雜的交通場景、物流狀況。這意味着算法錯誤會更早暴露出來,研發成本也隨之下降。

  更重要的,是安全。汽車製造是一個高安全門檻的系統,研發通常遵循嚴格的“V字流程”——從模型在環、軟件在環、硬件在環再到車輛在環、駕駛員在環。對自動駕駛而言,仿真平臺的軟件在環格外重要。沒有仿真,算法很難覆蓋各種極端情況的安全驗證。

  楊子江說,“它是確保安全的必備手段。”過去幾十年,仿真只是實驗室裏的輔助工具;而在自動駕駛時代,它逐漸變成真正的試煉場。

  虛擬仿真爲自動駕駛研發搭建了“試煉場”,而世界模型與視覺-語言-動作模型(VLA)則被視作它的進階版本。

  在3D高斯重建、NeRF(神經輻射場)等新技術的支持下,真實場景能夠被更精準地還原到虛擬空間中。再疊加“世界模型”,算法不僅能在已有數據裏學習,還能“想象”出新的場景。

  紀雪洪指出,世界模型的最大意義,在於補齊 Corner case(邊角案例)的覆蓋不足。現實中自動駕駛車輛很難接觸到所有極端場景,但這些場景又可能影響安全。它通過虛擬仿真生成各類罕見、高難度場景,像 “做難題” 一樣訓練算法,讓車輛在遇到類似情況時能更好應對。

  VLA 則是另一條路徑。它將大語言模型與視覺模型結合,試圖訓練出一個通用的自動駕駛“大腦”。過去端對端模型雖數據利用更全、擬人化效果好,但存在 “黑箱” 問題;VLA 通過語言與視覺的結合實現推理,能解釋駕駛行爲,相當於 “解構黑箱”,讓模型更聰明,具備舉一反三的泛化能力和解釋能力。

  紀雪洪認爲,世界模型側重 “經驗總結”,靠海量虛擬場景積累應對能力;VLA 側重 “認知提升”,靠多模態融合實現通用推理。但它們完全可以結合,既有足夠的場景經驗,又有聰明的決策大腦,能快速提升自動駕駛應對能力。

  物理AI提升設計效率

  在CES 2025上,英偉達創始人黃仁勳提出一個新概念——“Physical AI(物理 AI)”。他回溯過去十餘年的AI演進:從2012年AlexNet引領的“感知 AI”,到近年的“生成式 AI”,再到正在興起的“智能體AI”;而下一個時代,將是全面進入物理世界的“物理 AI”。

  在黃仁勳的設想中,未來的自動駕駛汽車和機器人一樣,需要依賴三個計算平臺。一是在數據中心的DGX,用於訓練AI堆棧;二是運行在OVX平臺上的Omniverse,負責仿真與合成數據生成;三是車載的DRIVE AGX,作爲超級計算平臺,實時處理傳感器數據以保障駕駛安全。

  這種對“物理 AI”的定位,很快在國內找到了呼應者。

  傳統仿真往往以有限元求解爲基礎,各模塊彼此獨立:風阻、動力學、胎壓、結構受力,各有一套單獨的軟件。松應科技創始人聶凱旋向時代週報記者表示,“新的物理AI仿真系統,核心是實現了不同仿真求解數據的共享,遵循 ”多物理場融合法則“,能把不同來源的數據放在同一個物理系統裏運行,模擬出多種要素組合的場景。”

  這種協同對車企尤其關鍵。汽車設計環節保密性強,分工細碎——外觀、內飾、結構,各自用不同軟件,數據相互隔離,難以合作。過去宣傳片裏的設計動畫往往是後期合成的,實際研發過程中各團隊基本是“各做各的”。

  松應科技的ORCA系統試圖打破這種割裂。在與某車企的合作中,他們搭建了一條“數據管線”,把五個離散部門的軟件連通起來,相當於放了一張“共享桌子”:誰修改了某個部件,其他環節能實時看到影響,不必等到整車合成後才發現問題。這既提升了效率,也讓設計更具整體性。

  談到與英偉達的差異,聶凱旋坦言,從系統架構上看兩者並無太大不同,但松應科技的優勢在於數據。“國內製造業客戶的場景數據是我們比英偉達強的地方。有些機器人要進工廠應用,需要數據訓練,我們能提供大量高精度、能與工業軟件打通的數據。”

(文章來源:時代週報)

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10