Google在25年間匯聚全球頂尖AI人才,發明了奠定現代AI基礎的Transformer技術。2017年,Google Brain團隊發表《Attention Is All You Need》論文,提出Transformer架構,成為GPT系列、Anthropic等大模型的核心基礎。然而,這項革命性成果由八位主要作者推動後,全部陸續離開Google,創立或加入OpenAI、Anthropic等新興AI公司。
早在2001年,Google工程師Noam Shazeer與George Herrick提出「壓縮即理解」的理念,並開發出早期語言模型PHIL,為搜索拼寫糾正和AdSense廣告系統提供支持。Jeff Dean用一週時間完成AdSense核心代碼,使其迅速商業化,創造數十億美元收入。2007年,Google翻譯系統依賴大規模語言模型,初始翻譯耗時12小時,經Jeff Dean重構算法後,實現並行處理,響應速度降至100毫秒,成為首個投入產品使用的大型語言模型。
2011年,Andrew Ng、Jeff Dean與Greg Corrado啓動Google Brain項目,開發分佈式深度學習系統Distbelief。其標誌性成果「貓論文」證明,神經網絡可在無監督情況下從YouTube視頻中識別貓圖像,無需標註數據。該技術推動YouTube推薦系統進化,奠定內容平臺AI驅動的基礎。2012年,Alex Krizhevsky、Ilya Sutskever與Geoff Hinton開發的AlexNet在ImageNet競賽中以40%優勢勝出,引爆深度學習革命。Google隨後以4400萬美元收購其創辦的DNN Research,將團隊納入Google Brain。
2014年,Google以5.5億美元收購DeepMind,保留其獨立研究結構與倫理委員會。此次收購成為後續AI格局演變的關鍵節點。2017年,Google Brain八人團隊發佈Transformer模型,克服RNN的記憶瓶頸,實現高效並行訓練。Noam Shazeer重寫代碼後,性能顯著超越原有系統。論文發表後,Google未立即產品化,而是選擇開放研究成果。
2018年起,OpenAI基於Transformer推出GPT系列。2022年11月30日,ChatGPT上線,五天內獲百萬用戶,兩個月達億級註冊,成為史上增長最快的產品。此前,Google內部已有類似項目Lambda與AI Test Kitchen,但因安全限制僅允許五輪對話,未能推向市場。ChatGPT的成功觸發Google內部「Code Red」警報。
2023年2月,Google倉促發布Bard,初期版本表現不佳,演示中出現事實錯誤,導致股價單日下跌8%,市值蒸發千億美元。同年5月,Google合併Brain與DeepMind為Google DeepMind,由Demis Hassabis領導,Jeff Dean任首席科學家。Sundar Pichai決策構建統一AI模型Gemini,整合全公司資源。
Gemini於2023年5月宣佈,12月開放測試,2024年2月發佈1.5版本支持百萬token上下文,2025年2月推出2.0版,6月全面可用。同期,Google在搜索中引入AI Overviews與AI Mode,Workspace全面集成AI功能,並推出Veo視頻生成、Genie遊戲生成等多模態工具。
Google擁有全球最大的搜索流量入口、年收入500億美元的雲服務、自研TPU芯片及4.5億月活用戶的Gemini。其優勢包括全棧AI能力、海量數據、基礎設施規模與自給資金。但挑戰同樣嚴峻:AI產品難以複製搜索廣告的高變現能力,高價值查詢場景正被AI替代,市場份額面臨OpenAI等對手擠壓,產品體驗未形成明顯領先,且持續面臨頂尖人才外流。
核心矛盾在於:Google是否願意犧牲年數百億美元的搜索廣告收入,全面轉向尚無明確盈利模式的AI未來?儘管高層宣稱「寧願破產也不輸AI」,但戰略抉擇仍懸而未決。Google能否在保護現有業務的同時主導下一波技術浪潮,將成為科技史上最經典的創新者困境案例。