商湯 “親兒子”!剛剛,杭州GPU狠角色,融資10億!

深科技
07-02

7nm AI芯片已量產

一則融資消息,炸出杭州一家藏在水下國產 GPU “狠角色”!

說它陌生,全網幾乎查不到半點公開報道,低調得像從未存在過;但提及其 “出身”,瞬間讓人倒吸涼氣 ——這竟是商湯在 2024 年底親手拆分的 “親兒子”!

它叫曦望 Sunrise,揣着 “更懂 AI 的芯片公司” 的野心,專攻高性能 GPU 賽道。

現在,這位披着神祕面紗的 “隱形大佬”,終於要在國產算力戰場掀起風暴了!

曦望 Sunrise 是商湯 2024 年底分拆的 GPU 公司,2025 年 6 月獲近 10 億元融資。定位 “更懂 AI 的芯片公司”,推出 S1(出貨超 2 萬片)、S2(對標 A100,將萬片量產),S3 預計 2026 年流片,宣稱降本 90%。

核心團隊 150 人,多來自 AMD、百度等,效率爲同行 1/3-1/5。聯席 CEO 王湛(百度元老)與王勇(芯片老將)帶隊,五年內 S1、S2 一次流片成功,S2 性能接近 H100,全棧自研兼容 CUDA。

更多芯片內容,推薦關注

曦望完成近 10 億融資,國產 GPU 再迎強援

商湯分拆獨立的 GPU 公司曦望 Sunrise 近日完成近 10 億元融資,投資方包括三一集團旗下華胥基金、第四範式遊族網絡等多家機構。

這家 2024 年底從商湯拆分而來的企業,雖此前鮮有曝光,卻已在芯片領域展現出強勁實力。

其核心團隊由百度創始元老王湛與 AMD 芯片老將王勇擔任聯席 CEO,前者曾主導百度 “鳳巢” 系統,後者參與過崑崙芯二代架構設計,150 人核心團隊集結了 AMD、百度、阿里等企業的資深人才,規模僅爲同行的 1/3 至 1/5,卻在五年內實現兩代芯片一次流片成功,效率顯著。

曦望的定位是 “更懂 AI 的芯片公司”,主打 “用得起”“用得上” 的高性能 GPU。目前已推出 S1、S2 兩款量產產品,S3 處於研發中。其中,S1 作爲雲邊視覺推理專用芯片,已出貨超 2 萬片,服務於商湯 CV 產品線;S2 則是對標英偉達 A100 的大模型推理 GPGPU,採用 7nm 工藝,性能追平 A100,且從指令集到工具鏈完全自研,兼容 CUDA 生態,已量產並計劃實現萬片級出貨。

產品矩陣劍指 AI 算力痛點,S3 瞄準多模態推理

曦望的產品佈局精準切入 AI 算力需求場景。S1 聚焦視頻分析模型推理,解決商湯視覺產品線的計算剛需;S2 則瞄準大模型推理市場,不僅硬件參數亮眼(FP32/TF32 性能接近英偉達 H100,帶寬高),還通過全自研軟件棧實現對 PyTorch、DeepSpeed 等框架的支持,降低企業遷移成本。

更受關注的是研發中的 S3,其定位爲 “下一代 AI 大模型推理芯片”,計劃通過架構創新將推理性能提升 3 倍以上,單位 Token 成本降低 90%,目標讓國產大模型推理成本進入 “1 分錢時代”,預計 2026 年流片。從場景落地來看,曦望已構建起從芯片到系統的完整解決方案,覆蓋 AI 大模型推理、智能製造、金融服務等領域,未來有望在多模態大模型爆發的浪潮中佔據一席之地。

此次融資與產品進展,不僅凸顯了資本市場對國產 GPU 賽道的信心,也預示着曦望或將成爲打破英偉達生態壟斷的重要力量。

曦望 Sunrise 核心人員:百度系

曦望 Sunrise 的核心技術團隊僅 150 人,卻有着不容小覷的實力,多數成員來自 AMD、百度、阿里、商湯等知名企業。聯席 CEO 王湛,身爲百度創始員工、前百度集團法人代表、“鳳巢之父”,曾深度管理百度核心業務,積累了豐富的行業經驗與商業洞察力。另一位聯席 CEO 王勇,在 AMD、崑崙芯積累深厚芯片研發經驗,主導過崑崙芯二代架構設計,自 2020 年加入商湯負責芯片研發,技術底蘊深厚。這支團隊規模雖小,卻在五年內成功實現 S1 和 S2 兩代芯片一次流片成功,研發實力強勁。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10