文心開源,彥宏轉身

藍鯨財經
昨天

文|象先志

百度的一隻腳,踏進了開源這條河

百度給自己定的使命,是用科技讓複雜的事情簡單化。

Hugging Face的主頁上,百度在這句話後面又加了句:我們堅定地認爲,真正的簡單源於開源。

你看,這個描述很直接,體現了一家技術公司,對用科技推動世界進步的責任感和美好願望,以及堅定擁抱開源社區的理想圖景。

當然,有關Mission的這兩句話是最近幾天新加的。主要之前如果這麼寫,好像也不合適。因爲在這輪文心大模型4.5系列模型開源之前,百度在Hugging Face上並沒有開源過任何自己的私有模型。

百度在開閉源問題上的態度轉變,是突如其來的,也是自上而下的。因爲只有自上而下的指令傳遞,只有李彥宏本人的高度重視和全面部署,百度的AI團隊才能在短時間內開創出開源工作的大好局面。

從規模上看,百度的這次開源很有誠意。一次性放出了10款模型,參數量從最大的424B到最小的0.3B都有,全面覆蓋多模態和文本,工作量非常飽和。

官方給出的相關基準測試數據顯示,這系列模型性能優於DeepSeek-V3等產品,並在多個方面相較於SOTA有顯著提升。

從二月份宣佈消息,到今天如期發佈,承諾終於兌現。

MEG 30號當天搞了個金點子夜市,Robin被人拍到現身百度科技園,心情大概還是比較奈斯。

只不過即便模型跑分跟實際表現相符,也算不上是個大新聞,遠到不了DeepSeek當時放衛星的程度。

我有個本科同學CVPR2025中了三篇,前不久剛從Nashville回來。我微信上問他對文心開源這事怎麼看,他謙虛說自己不夠格評價。後面又補了兩句,“但百度應該沒人用吧”,“現在討論大模型基本不考慮文心了”。

1. 文心大模型來的晚了一些

首先我們先看下文心這次開源的模型水平。

文心網站上,有公佈性能和基準測試結果。

官方的技術報告裏,旗艦模型300B-A47B在大部分測試類別中,都實現了比Qwen3、DeepSeek-V3和GPT-4.1更好的表現。

但衆所周知,由於Meta在Llama 4發佈的時候拉了坨大的,現在對於官方公佈的跑分結果通常直接搞有罪推定。

從大模型觀測員等第三方評測結果看,這次的文心大模型4.5系列,跟現有的旗艦開源模型如DeepSeek R1、Qwen 3等相比仍有差距。

該賬號主理人toyama nao在知乎上說,初版短評寫的“推開開源大門”,後面覺得還是用“輕敲”更合適。顯然,中規中矩、沒有驚喜是對這系列文心模型較爲合適的客觀評價。

但一箇中規中矩、沒有驚喜的模型,在當下的開源環境中,能給百度帶來的助益必然相當有限。

大模型領域跟傳統的互聯網行業一樣,也是趨向於贏家通喫的寡頭格局。

作爲用戶,你不會想用一個技術上落後的產品,因爲你可以很容易地切換到更好更優秀的模型,而且不會有任何其他方面體驗上的損失。

如果進一步將考慮範圍縮小到開源社區,一個普通的中規中矩的模型所擁有的空間會更加逼仄。

對於開發者或者企業而言,免費的比你好的選擇那麼多,爲啥要選擇一個差強人意的?

開源社區的空間很大,但不可能容得下每個企業。

開源大模型領域的發展大致可以分成三個階段。

階段一:ChatGPT剛剛發佈,沒有任何競品,開源社區零基礎。

階段二:Meta發佈Llama,實現了開源模型的從無到有,但這個時候開源跟閉源仍然差距巨大。

階段三:DeepSeek發佈R1,開源閉源模型差距大大縮小,形成了開源緊追閉源的心理預期。

事實上,當我們從階段二跨越到階段三這個階段後,隨着開源社區模型選擇的多樣化,行業的主要矛盾也從“無模可用”到“無先進模型可用”的階段。

在這個階段,你發一些中等水平的模型,已經不具有太大的意義,因爲沒人在意。

只能說文心繫列模型的開源來得晚了一些。如果百度去年這個時候做這事,估計還能掀起點浪花。

只不過去年這個時候,李彥宏還在繼續輸出“暴論”,批判開源模型是智商稅。

李彥宏選擇開源,背後的考量是很清楚的。

百度之所以最初開始選擇閉源,是預期自己能想OpenAI那樣,建立技術實力上的勢能差。

我可能打不過OpenAI,但OpenAI在國外,對國內的市場格局影響不大。

我只要做到比國內的競爭對手優秀就行,類似於當初做搜索的邏輯。

但做着做着,李彥宏發現百度不只是做不過國外的競對,連國內同行都一個二個在超越自己,情況屬實是有些危急了。

所以哪怕被打臉,也還是決定轉向開源。

開源一方面可以賺吆喝,就像DeepSeek和阿里雲那樣,讓別人認可你的技術實力,科技企業嘛,還是需要搞點技術增光添彩的。

其次是可以賺銀子,像文心大模型肯定在百度自己的基礎設施上跑出來的效果最好,通義系列肯定上阿里雲更方便更有效率,通過建立生態提供服務的方式賺錢。

最後,開源還有個好處,就是可以相對客觀地獲得有關自身模型的技術反饋,這樣可以倒逼企業提高研發水平,拿出更有力度的產品。

由於前兩個因素都需要有技術領先作爲基礎,目前來看百度這次的發佈最多只能在第三點上有點效果。

2. 開源閉源不只是個技術問題

業內關於開源和閉源兩條路線的爭論很多,兩邊都有各自的道理。

從用戶的角度說,當然是希望開源模型的數量越多越好、性能指標越高越好。開源模型可以給社區提供技術養分,同時也能借助社區力量加速迭代進步,實現技術反哺,構成良性循環。

當然最重要的,大語言模型已經並且正在成爲數字性基礎設施,開源模型可以保證所有人對這項技術的可獲得性。

OpenAI和Anthropic封的號比PUBG還多,就是個很好的提醒。

但對於企業來說,大模型的研發和訓練需要投入巨量的成本,這些成本需要有渠道能cover,才能實現長期的可持續性。以閉源的形式,提供排他性的產品服務,然後從中獲取營收是個更合適的路子。

雖然到目前爲止,即便是OpenAI也還沒能證明這條道路在財務指標上的可行性,去年一年其虧損額達到50億美元。

因此,開源閉源不只是個技術問題。

然而,就百度來說,這個問題還因爲牽涉到李彥宏本人而更加複雜化了。

在國內這麼多家互聯網公司創始人裏,李彥宏是外界普遍認知裏最技術範的。

這跟百度的歷史有關。搜索引擎是個技術含量很高的領域,而李彥宏本人就是“超鏈分析技術”專利的持有者。當然,除開創立百度早期,李彥宏後面十幾年裏作爲CEO應該基本沒再深度參與百度的技術研發了。

但李彥宏仍然是百度的技術圖騰,這在大模型到來後尤爲明顯。

其他公司會有技術相關的負責人拋頭露面,但百度這邊幾乎所有重磅的模型或者產品都是李彥宏本人站臺。開源和閉源的戰略調整,也被認爲是李彥宏基於自身的技術認知和品味,在做技術路線上的關鍵選擇。

當我們回顧百度在開源閉源上的態度變化時,實際就是在看李彥宏本人的合訂本。

2024年4月16日,李彥宏:開源模型會越來越落後。

2024年7月5日,李彥宏:開源模型是智商稅。

2025年2月8日,百度文小言宣佈接入deepseek。

2025年2月14日,定了,文心下一代模型開源!

作爲公司最高決策者,你當然可以隨時做出開源或者閉源的決定,然後讓下面的人去執行。但執行的結果和下面的人對你的判斷,你是沒辦法控制的。

作爲技術型CEO,你沒做好戰略管理,沒能精確地鎖定某個新興行業並拿下市場份額,這雖然面子上有點掛不住,但在公衆和員工那裏是有諒解理由的。

做技術的嘛,在其他方面眼光不夠敏銳,還是情有可原的,本來尋找第二曲線這事就不容易。更何況公司在正常運營,百度的現金流還穩穩的,沒有大規模的裁員或者降薪,日子正常在過。

但在技術問題上,你前期信誓旦旦紅口白牙語出驚人,後面又來360度大反轉,-1-2誇你有決斷敢拍板不怕打臉,但員工真實心理會怎麼想呢?

他們只會覺得你的技術品味和方向判斷能力有很大問題。外部的人最多隻是嘲笑調侃聊作談資,但內部的研發團隊士氣會受到實打實的打擊。

說到底,開源閉源是技術路線的選擇,但絕不只是個技術問題。

今天中午有個新消息,百度創始人李彥宏發佈內部信,宣佈了新一輪組織調整:

何海建(Henry)正式加盟百度,擔任集團公司首席財務官(CFO),負責百度財務體系管理工作。集團資深副總裁何俊傑(Jackson)不再擔任代理CFO職務,輪崗負責集團人力資源及行政管理。

輪崗是個很有百度特色的制度,後面有機會可以專門寫一篇。

輪崗這事不罕見,很多企業都有,但一般都是中基層崗位,比如銀行管培生都需要在不同部門實習跑一圈,熟悉下業務。百度不一樣,百度輪崗輪的是最高管理層那批人。

官方語境裏,輪崗是爲了激發組織的創新與活力。

輪崗到底有沒有激發百度的組織活力我不知道,起碼目前來說,效果不是很明顯。但輪崗在事實上造成了一個結果:強化了李彥宏和百度之間的同一性。(後續會針對百度組織架構進行拆解)

這隻會加劇我們上面所說的那個問題。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10