炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!
新智元報道
編輯:定慧
【新智元導讀】Transformer已滿8歲,革命性論文《Attention Is All You Need》被引超18萬次,掀起生成式AI革命。
Transformer,八歲了!
開創如今這場生成式AI革命的論文《Attention Is All You Need》迎來了第8個年頭。
Transformer催生了ChatGPT、Gemini、Claude等諸多前沿產品。
更重要的是,它讓人類真正跨入了生成式AI時代。
人類和生成式AI的命運從2017年6月12日週一下午17點57分開始交匯。
Transformer的影響依然還在繼續!
到今天爲止,這篇論文的被引次數已經到了184376!
僅僅過去兩年時間,被引用次數翻了2倍還多!
網友們也紛紛爲Transformer 8歲生日送上祝福。
但和所有傳奇故事的開頭都非常相似,這篇論文當年甚至沒有引起人們的Attention(注意)。
一篇未獲人們“Attention”的傳奇論文
Transformer發表在2017年的NeurIPS上,這是全球頂級的人工智能會議之一。
然而,它甚至沒有獲得Oral演講,更不用說獲獎了。
2017年的NeurlPS獲獎論文
從如今的影響力和現實意義來看,谷歌公開這篇文章算得上是“功德無量”。
網友也盛讚谷歌的做事方式,允許任何人完全免費使用,甚至不需要許可證授權。
但隨着生成式AI的發展,各家巨頭的加入,谷歌也開始逐漸收回自己的“善意”。
在大模型如今競爭白熱化的當下,谷歌DeepMind要求所有科研人員的生成式AI相關論文設定6個月禁發期!
DeepMind的CEO Hassabis曾表示:
不僅如此,創新成果不發,Gemini短板也不能提。
或許谷歌一開始也並沒有預料到Transformer會影響人類歷史如此深遠。
人人都愛Transformer
作爲一篇嚴肅的機器學習向論文,《Attention Is All You Need》自發布以來,已經有無數人進行了解讀。
不論是否和機器學習行業相關,人們“渴望”搞清楚目前生成式AI的能力究竟來源於哪裏。
不論是國內還是海外,試圖帶你讀懂論文的視頻都有很高的熱度,並且直到今天,“教你學會”、“帶你看懂”等內容依然有非常高的播放量。
科技領域的頂級KOL Lex Fridman和AI界的頂級科學家Andrej Karpathy 認爲Transformer是AI世界中“最棒的想法”,沒有之一。
而“XXX Is All You Need”甚至成爲了嚴肅學界樂此不疲的玩梗素材。
論文題目直接套用了披頭士名曲《All You Need Is Love》的說法,也正因其簡潔而響亮的表達方式,迅速被AI學界和網絡社區廣泛引用和調侃——
從“Attention Is All You Need”延伸爲“X Is All You Need”的各種變體,形成一整套互聯網meme式的幽默結構 。
“標題的成功”還引發了一連串同樣玩梗的論文出現,這些論文的標題或內容都借用了這一俏皮話。
有研究人員甚至製作了一張圖展示了對所有這些論文的綜述,使讀者能夠總結出這些論斷出現的背景及其原因。
Transformer後時代:AI八年狂飆
自Transformer問世以來的八年間,研究者和工程師們圍繞這一架構進行了大量探索和改進。
Transformer的發展歷程既包括模型本身的架構優化,也包括模型規模的指數級擴展,以及向多模態領域的延伸融合。
Transformer架構天然適合並行計算,這使得研究人員能夠不斷堆高模型參數規模,驗證“大模型是否更聰明”。
事實也證明,參數和數據規模的擴張帶來了質的飛躍。
從最初論文中的億級參數模型,到2018年的BERT(3.4億參數)和GPT-2(15億參數),再到2020年的GPT-3(1750億參數),模型大小呈指數級增長。
OpenAI等機構的研究揭示了清晰的Scaling Law(規模定律):模型越大,數據越多,性能越佳且湧現出小模型不具備的新能力。
隨着規模擴張,Transformer模型展現出令人驚歎的零樣本/小樣本學習能力,即無需或只需極少示例就能完成新任務。
模型規模的擴展帶來了AI能力的質變,使Transformer成爲真正的基礎模型(Foundation Model)——一經訓練即可泛化支持衆多下游應用。
不過,每個傳奇故事似乎都沒有那麼Happy Ending的結尾。
曾經聯手打造出谷歌最強Transformer的“變形金剛們”如今也已分道揚鑣。
8年前一篇不起眼的論文,卻徹底開啓了人類的生成式AI時代。
這個被忽視的小論文,徹底開啓了AI的大時代。
它的故事還遠遠沒有結束。
目前的AI仍然繼續在Transformer架構基礎上狂飆突進。
Transformer的影響力還能持續多久,也許只有等AGI實現那天來回答了。
但無論未來AI技術如何演變,Transformer已經在歷史上留下永久且深刻的印記。
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。