「AI投毒」曝光之後,如何正確的跟AI搞關係,即將成為一門新生意

藍鯨財經
昨天

文|錦緞

今年的央視3·15晚會上,AI毫無意外地成為焦點之一。「AI大模型數據投毒」,央視以直白方式曝光了這條產業鏈,其運作方式在報道中得到了直觀呈現。

在央視財經的測試中,業內人士隨機購買了一款名為「GEO優化系統」的軟件,並虛構了一款現實中不存在的產品——「Apollo-9智能手環」。為便於後續識別信息來源,測試者借鑑生物學中的「標記重捕」法,為該手環編造了一系列「一眼假」的賣點,如「量子糾纏技術」「黑洞級續航」。

接下來的流程展示了這項技術的運作方式:

首先,GEO軟件通過內置算法,自動生成十餘篇評測「軟文」,措辭誇張,內容充斥着虛構的高分用戶評價。

隨後,軟件自動登入各大自媒體平台,批量發布這些文章。

兩個小時後,當記者向某些匿名AI搜索引擎詢問「Apollo-9智能手環」時,這款虛假產品已出現在AI生成的回答中。

從技術角度看,這套流程並不複雜。但其背後產業鏈的規模,或許超出許多人的直觀感受:

在這場人為設計的測試中,具備高度智能的大語言模型,被幾篇低質軟文成功「誤導」,輸出虛假信息。

這也驗證了一個此前已被提出的判斷:大語言模型的底層機制中,存在可被利用的漏洞,且不止一處。而這一現象背後,涉及更深層的技術與商業變革。

 從SEO到GEO

要理解「AI投毒」的技術原理,需要從搜索引擎的演變說起。

過去二十年,搜索引擎優化(SEO)是互聯網流量分發的核心邏輯。無論國內百度還是國外谷歌,只要摸透主流搜索引擎的爬蟲算法,通過「關鍵詞密度+外鏈數量」的組合,便可在很大程度上實現信息的壟斷與商業變現。

搜索引擎的普及本身是一次技術革命,它使知識獲取方式從書本轉向互聯網,並催生了價值超過800億美元的產業。

但技術演進並未止步。

2023年後,以ChatGPT為代表的大語言模型開始改變信息獲取方式。與搜索引擎相比,ChatGPT等工具提供的直接答案頁面,通常不包含大量廣告或低質信息。此後,蘋果谷歌等公司陸續將AI模型深度整合進瀏覽器,傳統搜索引擎的商業路徑正逐步收窄。

當互聯網充斥着大量冗餘信息,用戶對「精準總結的答案」的需求成為主流。AI工具恰好滿足了這一需求,並逐步培養用戶習慣。

在此背景下,傳統的頁面排名(Page Rank)機制的意義正在減弱,一種新的流量分發範式正在形成:生成式引擎優化(Generative Engine Optimization, GEO)。

技術層面的迭代,開啓了一場圍繞「AI心智」的商業競爭。

 「AI投毒」的底層原理

現有大語言模型雖經過複雜訓練,具備較高智能水平,但其預訓練知識庫通常是靜態的。無論是Google的Gemini、OpenAI的ChatGPT,還是DeepSeek,知識庫一般只更新至某一時間節點(如2025年)。但用戶需求是動態的。為了讓基於歷史數據訓練的模型能回答當下問題,主流技術方案是檢索增強生成(Retrieval-Augmented Generation, RAG)。

RAG機制的應用場景包括給定的知識庫,也可擴展至整個互聯網。若要讓AI承擔類似搜索引擎的功能,就需要將互聯網信息視為一個動態更新的知識庫。當用戶提出問題時,AI的工作流程大致如下:

檢索:在全網範圍內抓取與問題相關的最新網頁;

閱讀:在短時間內讀取網頁的核心內容;

生成:交叉比對不同來源的信息,剔除冗餘,形成包含引用的直接答案。

拆解這一流程後,「AI投毒」的原理便相對清晰:問題出在生成階段的「交叉比對」環節。

這也是RAG機制的天然侷限:對於預訓練知識庫之外的信息,模型主要依靠交叉比對來判斷事實真僞。檢索時,儘管權威信源不會報道虛假信息,但若大量邊緣網站以相似口徑集中渲染同一虛構產品——如「Apollo-9手環」的正面評價,措辭甚至高度雷同——那麼在數學概率層面,假消息便可能被模型誤判為可信信息。只要人為製造的「僞證」數量足夠多,模型的閱讀理解系統就可能被繞過。

在這一過程中,網頁在傳統搜索引擎中的排名高低已不重要。關鍵在於,內容是否被模型「選中」,並作為依據納入最終答案。

 大模型的內容偏好

「AI投毒」的本質,是對AIGC平台語料庫的污染。只要Transformer架構未被顛覆,幻覺問題便難以根除,這也為「AI投毒」留下了操作空間。

目前,類似「Apollo-9手環」的虛假信息被批量投放至中文互聯網是否合法,尚無明確法律界定。但對於正規企業與優質內容創作者而言,GEO機制可能帶來實質性衝擊。

事實上,GEO技術並非新近出現。2024年,普林斯頓大學發表了全球首篇關於GEO的學術論文《GEO: Generative Engine Optimization》。論文中,該技術的初衷是實現優質內容的更廣泛傳播。研究團隊構建了包含上萬個查詢的基準測試集,通過黑盒測試得出以下結論:

其一,傳統SEO策略在AI主導的信息分發中基本失效。過去營銷號常用的「關鍵詞堆砌」(Keyword Stuffing)策略,在大語言模型中反而容易被識別為噪音。由於注意力機制的存在,信息熵較低的文本會引發困惑度(Perplexity)升高,權重隨之降低。

其二,「事實密度」(Fact Density)是影響AI內容引用的關鍵因素。事實密度指內容中真實信息的佔比。近年來,大語言模型普遍經過RLHF(基於人類反饋的強化學習)對齊訓練,獎勵模型傾向於引導模型輸出有據可循、邏輯清晰的內容。因此,網頁的事實密度越高,大模型提取內容時的損失函數越低。

實驗數據顯示,以下簡單策略可將內容引用率提升30%至40%:

添加引用:在內容中附上可信來源鏈接;

添加專家引言:直接引用行業專家原話;

添加統計數據:用具體數字替換模糊描述。

其三,GEO可能成為小型平台的「流量平權工具」。在傳統搜索引擎中,小網站因缺乏域名權重和歷史外鏈,難以與門戶網站競爭。但在AI檢索機制下,只要內容提供精準數據或權威引言,小網站仍可能獲得較高引用率。這不僅是內容質量的迴歸,也意味着算法底層邏輯的重構。

 關於GEO商業前景的兩點判斷

若從算法與學術層面抽離,以更宏觀的視角審視GEO,可以發現一個隱藏於技術背後的趨勢:

這一變革的本質,並非SEO的簡單升級,而是企業與互聯網基礎設施交互方式的系統性重構。

過去二十年,企業在互聯網上的核心商業訴求是流量獲取。而未來十年,隨着AI逐步成為人類的信息代理人,企業的核心命題將轉向「大模型關係管理」(Large Model Relationship Management)。

由此可引出關於GEO商業前景的兩點判斷:

第一,未來的競價排名,標的可能不再是點擊,而是模型的「認知」。

無論是Google、OpenAI還是DeepSeek,目前大模型的商業模式以訂閱制為主,而非廣告點擊。若這些AI平台不願因廣告破壞用戶體驗,最終可能會開放面向B端的知識庫直連API模式。或許,OpenAI此前考慮在ChatGPT中加入廣告卻又擱置,亦與此有關。

未來,企業或不再爭奪搜索結果排名,而轉向向AI平台支付「數據接入費」。通過專用API,企業可將產品內容無損導入大模型的RAG系統,既避免品牌推薦出現幻覺,也掌握了AI對產品的最終解釋權。

由此形成的新商機是:誰能為傳統企業將官網內容轉化為大模型偏好的結構化數據,誰便有可能取代傳統廣告代理商,成為AI時代的新型數字營銷服務商。

第二,頂級的GEO策略,可能演化為逆向RAG工程。

未來企業的官網或產品詳情頁,可能不再以人類為主要閱讀對象,而是專門面向機器撰寫。產品優勢、競品對比、權威背書,或將不再以自然語言呈現,而是轉化為JSON等結構化數據格式,甚至主動推送至大模型的抓取列表。

正如當年的Google AdWords與Facebook推薦算法,每一次信息分發權力的轉移,都會帶來流量紅利與套利空間。如今,大模型正逐步掌控人類獲取信息的入口,成為「外置大腦」。在此背景下,最先理解底層邏輯並適應新規則的一方,仍將分到最大一塊蛋糕。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10