百度AI,「單幹」創業

象先志
昨天

文 | 象先志

百度又調整了AI組織。

最新變化是,設定百度模型委員會BMC。此前新成立不久的基礎模型研發部BMU、應用模型研發部AMU,將向BMC 彙報;相關部門同時仍向百度CEO 李彥宏彙報。

按照公開信息,BMC 的成員由年輕、對大模型有深刻理解的研究員構成,將統籌百度大模型基礎模型和應用模型的研發工作。

BMC在BMU和AMU之上加了一個統籌協調層,標誌着自去年成立模型研發新部門之後,這套組織架構正式成型。

這次調整的真正含義是:李彥宏正在百度內部畫出一塊AI自留地。

這塊地更年輕,更貼近大模型研發一線,也擁有一條更短的決策鏈路。它要繞開的,正是百度過去很多年裏反覆暴露出來的老問題:機會如雨點撒來,但百度都一閃而過。

先知先覺的百度

百度從來都是一家先知先覺的公司。

在中國互聯網公司裏,百度是最早系統性押注AI的公司之一。無論是智能音箱、自動駕駛,還是後來的大模型,百度都不是等別人跑出結果後才倉促跟進。很多時候,李彥宏對技術趨勢的判斷甚至是偏早的。

但這也正是百度最尷尬的地方。

如果一家公司一直沒有看見趨勢,它的問題很簡單;如果一家公司總是很早看見趨勢,卻總是在結果出來時顯得落後,問題就複雜得多。

百度過去幾年被反覆概括為「起大早,趕晚集」,這句話之所以流行,是因為它擊中了百度AI敘事裏的核心矛盾:方向感並不差,交付結果卻總是不夠硬。

李彥宏很早強調AI,很早講智能體,也一直試圖把AI競爭從單純的模型能力,拉向應用和生產力。但問題在於,百度交出來的產品和模型,很多時候沒有撐住他的判斷。

最典型的例子,是過去兩年關於開源和閉源的爭議。

李彥宏曾經因為開源模型沒有機會、閉源模型纔有前途的判斷,被外界反覆討論。但如果把視角從國內輿論場拉到全球大模型商業化,這個判斷並非完全站不住。

OpenAI、Anthropic、Google等公司所代表的主流商業模型路徑,本質上都在證明這點。閉源模型可以形成壁壘、價格體系和商業收入。

今天再看,國內大模型公司的開源和商業化策略也並不是簡單地一路開源到底,阿里調整開源策略,豆包準備實行付費計劃。

如果文心大模型在能力、體驗和行業口碑上都明顯領先,李彥宏關於閉源的論斷會顯得順理成章。但當外界感知到的是文心沒有足夠強的統治力時,一個本來可能成立的商業判斷,就反過來變成了嘲弄的物料。

這說明李彥宏的問題未必是完全看錯了方向,而是他可能高估了百度自身的模型能力。

高估從哪裏來?很大程度上來自組織內部的信息輸入。

一個CEO對公司核心能力的判斷,不可能只靠自己坐在辦公室裏試產品。他依賴彙報,依賴內部評估,依賴層層傳遞上來的研發進度、模型指標、產品反饋和競爭判斷。

如果這些信息被組織慣性過濾和包裝過、樂觀化過,最終到達他面前的就不是真實世界裏的百度。

這就是理解BMC的背景,也是理解BMU和AMU的背景。

留塊自留地,繞開舊體系

BMC最值得注意的地方,是彙報關係和「年輕研究員」。

這幾個字比「委員會」本身更重要。因為它說明百度並不只是想用一個更高層的管理人員做協調,而是在試圖讓真正理解大模型的一線技術人員,進入更靠近決策中心的位置。

這背後至少有三層含義。

第一,百度希望減少傳統管理鏈條對技術判斷的過濾。

大模型研發不是一個適合層層轉述的領域。模型路線、訓練數據、算力分配、後訓練策略、應用反饋,每一個環節都變化很快,也都非常依賴一線判斷。如果決策層聽到的主要是經過多層加工的總結,很容易錯過真正關鍵的技術細節。

讓年輕、懂模型的研究員進入BMC,意味着百度希望把一線研發判斷抬到更高位置。它並非單純的年輕化姿態,而是試圖改變信息抵達李彥宏的方式。

第二,這接近AI創業公司的組織氣質。

過去幾年,全球最強的一批AI公司,很多並不是傳統大公司的典型組織形態。它們的核心技術判斷,經常來自非常靠近模型訓練和產品迭代的一線團隊。研究、工程、產品、商業化之間的距離很短,方向錯了可以快速改,能力不足也很難被長期掩蓋。

國外巨頭基本沒有做模型的聲量,能力限制和主動選擇都是因素。唯一做出成績的谷歌,也依靠DeepMind作為相對獨立的研發設施。

百度作為一家成熟大公司,很難完全複製創業的結構。但BMC至少是在向這個方向靠近:讓模型研發不再完全沉在既有組織層級裏,而是形成一條更短、更直接的路線。

第三,這是對百度過去內部信息鏈條的一種修正。

如果百度過去的問題是「起大早,趕晚集」,那它要反思的就不能只是戰略層,而必須反思執行層、反饋層和判斷層。李彥宏需要知道真實的模型能力到底在哪裏,真實的產品體驗到底如何,真實的競爭差距到底有多大。這些信息越經過層層彙報,越容易失真。

BMC的設定,本質上是在縮短這個距離。

這裏還可以看到一個更微妙的信號:百度傳統AI 技術體系長期與王海峯相關,但BMU、AMU以及現在的BMC,都是直接面向李彥宏的大模型線。它至少說明,李彥宏希望把大模型研發從百度既有技術管理體系裏單獨拎出來,形成一條更短、更直接的決策鏈條。

BMU和AMU本來就不應該是割裂的。

BMU做通用基礎模型,AMU做更貼近應用的專精模型和能力。表面上看,一個偏底座,一個偏場景;但在大模型時代,兩者天然互相依賴。

一個編程類應用能不能做好,不只取決於應用層怎麼設計,也取決於基礎模型在代碼能力上的起點。這個起點又會反過來影響訓練數據權重、評測體系和模型路線。

如果基礎模型團隊只追求通用指標,應用模型團隊只在後端補能力,兩者之間就會出現斷裂。BMC的價值正在於此:它試圖把基礎模型研發、應用模型研發和業務落地放進同一套統籌機制裏。

所以,BMC、BMU和AMU更像是一種內部創業機制。

李彥宏在百度內部畫出一塊AI自留地,因為他可能已經意識到,原有組織體系很難自然長出他想要的大模型結果。既然這套現有體系靠不住了,那就試試以內部創業的形式搞某種程的「單幹」。

BMC 重組隊伍,DAA 定義規則

在Create 2026上,李彥宏對外拋出了另一個概念:DAA,Daily Active Agents,日活智能體數。

李彥宏想表達的是,AI時代不能只看有多少人燒了多少token,更要看有多少智能體在替人完成任務。移動互聯網時代,DAU是一個核心指標;但到了智能體時代,Agent就是參與主體。

這個方向有啓發。

如果AI的價值不只是回答問題,而是替人執行任務,那麼衡量標準確實應該從「人訪問了多少次」,轉向「機器完成了多少工作」。在這個意義上,DAA是百度試圖為智能體時代提出一套新計分方式。

但 DAA也有問題。

agent本質上仍然是被賦予一定智能的程序。只要願意拆分、部署和運行,agent的數量可以被迅速做大。一個agent 是否真的創造了價值,不能只看它是不是「活躍」。

相反,低質量agent甚至可能製造噪音。

社交媒體上的AI評論就是一個很直觀的例子。它們表面上增加了互動,實際上卻未必提供新的信息、經驗和判斷。用戶之所以看評論,是為了獲得自己單獨思考時無法得到的補充。

如果評論只是大模型可以隨手生成的套話,它增加的是注意力負擔。我要看AI回覆,那我直接問AI不就行了。而且大概率用來跑agent 的不是最頂尖的模型,我自己問,想問opus 4.7就問,想問gpt5.5 也行。

李彥宏說token 代表成本,不代表產出,這話有一部分道理。token消耗本身確實不能說明任務是否完成。但反過來說,token 是付費資源,是實實在在的成本。

企業和用戶願意持續為token買單,已經說明它在某些環節創造了價值。錢仍然是最有效的衡量尺度之一,付費就是最強的產出認可度。

DAA 可以某種程度上被理解為百度爭奪AI應用時代話語權的一次嘗試。

它和BMC放在一起看,才更有意思。

Create 2026上,百度對外說的是:AI競爭不應該只看模型排行榜、參數、token和聊天機器人的DAU,而要看智能體是否真正完成任務。

這是百度想重新定義外部比賽規則。

BMC則是百度對內做的動作。如果未來競爭真的要看智能體能否持續交付,那麼基礎模型、應用模型、訓練路線和業務落地就不能彼此割裂,並且要用另起爐竈的方式保障資源、效率和信息傳遞。

這是李彥宏在重組內部參賽隊伍。

但百度這裏缺了一環,原生AI應用場景。

百度App、搜索、百度網盤、百度文庫,都有用戶、有數據、有場景。問題在於,這些產品大多形成於上一代互聯網周期。它們的功能、用戶心智和商業模式早已成型,AI可以改造它們,但這種改造更多是在既有功能上的增強。

秒噠、DuMate、伐謀、一鏡,構成了百度在Create 2026上展示的智能體矩陣。它們讓百度的AI應用敘事變得完整:有通用智能體,有代碼智能體,有決策智能體,也有數字人智能體。但它們還需要證明自己是穩定、高頻、能充分激發付費能力的真實應用。

組織可以重建,應用場景不能靠組織架構自然長出來。

這是BMC的邊界,也是百度接下來真正要面對的問題。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10