本文來自微信公衆號: 未來圖靈 ,作者:張鳳靜,原文標題:《圖靈AI對話|喻國明:「AI擦邊的核心,是商業模式對人性弱點的過度榨取」》
當馬斯克旗下的Grok在X平台上掀起「一鍵脫衣」風暴,當國內首例AI陪伴軟件涉黃案將開發者送入法庭,當印尼、馬來西亞等國相繼封禁相關應用——我們不得不承認,一個由AI驅動的全新灰色地帶,正在全球範圍內野蠻生長。
這股浪潮的底層動力,遠比我們想象得更為洶湧。2025年12月底至2026年1月初,Grok的圖像生成功能被用戶大規模濫用,掀起了一場史無前例的「比基尼風波」,用戶僅需@一下AI,就能讓任何人「穿上」比基尼,連馬斯克本人的惡搞圖都難逃此劫。
研究數據顯示,Grok的用戶羣體平均每小時生成6700多張「脫衣」圖像。而數字情報公司Peryton Intelligence的數據顯示,僅在2026年1月2日當天,Grok就收到了199,612個獨立的脫衣請求。面對洶湧的輿論壓力,X平台於1月9日宣佈,圖像生成功能僅對付費用戶開放,並於1月15日正式發布安全聲明,禁止為真實人物生成暴露服裝(如比基尼)的圖片。
面對這一複雜難題,我們專訪了北京師範大學新聞傳播學院喻國明教授。身為北京師範大學新聞傳播學院學術委員會主任、教育部長江學者特聘教授,喻國明長期深耕技術、社會與人性的關係領域,憑藉其開創的「認知神經傳播學」以及「社會安全閥」「輿論代償機制」等理論蜚聲學界。他的剖析始終跳出二元對立的桎梏,力求探尋兼具現實觀照與建設性價值的平衡之道。
在本次訪談中,他開宗明義地指出,討論的前提是必須嚴格區分「公共空間」與「私人空間」,成年人在私域內的合理消費應受保護。但這絕非為技術濫用開脫。他犀利地指出「技術非絕對中立」,並提出了清晰的「責罰相稱」責任劃分原則:有意為之的開發者應負主責。面對全球「監管碎片化」,他認為在底線的價值共識上可以協同,而在具體文化表達上必然存異。
對於創業者,他則給出了從設立「倫理憲章」到擁抱「最小化可行治理」的務實建議。
喻國明教授的核心觀點,最終指向一種審慎的、發展的治理智慧。他強調,「治理的邏輯必須建立在未來發展的可能性之上」,反對用舊框架簡單框定新現實。他提醒,法律的終極目的不僅是懲罰,更是倡導一種更文明的滿足方式。他開門見山地指出,「不能用傳統意義上那套標準,去框定正在發展、日益變化了的新狀況。」
這場由算法掀起的慾望風暴,不僅是一場法律與技術的賽跑,更是一次關於我們如何定義數字時代隱私、自由與責任的全民拷問。而答案,或許就藏在這場在鋼索上前行的平衡藝術之中。
以下是未來圖靈與喻國明教授的對話,略有刪減。
新現象、新特徵——AI「擦邊」的本質之辨
Q:我們關注到當前AI情感陪伴類產品發展迅速,但也伴生出所謂「AI擦邊內容」的監管困境。您怎麼看待這個問題?
喻國明:我認為從規範或監管的角度,首要的是區分私人空間與公共空間。根據我國既有法律規定及國際通例,即便是涉及色情的內容,只要限於個人消費、不進行傳播,本身並不構成違規。無論從法律還是從人合理需求滿足的角度,社會對於性內容應有相對開放的接納態度,限制主要在於傳播環節。因此,個人通過AI平台進行共創,只要內容不向外傳播或商業化,原則上屬於私人權利範疇。在私權領域,公權力不應隨意干預,大致是「民不告,官不究」的原則。
當然,我們必須認識到,心理與情感需求是當今社會發展中的一個普遍痛點。國家衛健委將2025年定為「心理健康年」,世界衛生組織也將精神健康納入健康的重要範疇。當前社會轉型、經濟下行、信息超載帶來的壓力,使得心理與情感問題凸顯。關注心理健康、滿足合理的情感需求,是社會文明應關注與寬容的。所以,我們不應將這種強大的社會合理需求簡單視為不合理甚至欲加處罰的對象,這是我們討論這一現象的的前提。
Q:在學術或政策語境中,「AI擦邊內容」尚無明確定義。您認為這類內容的核心特徵是什麼?它和傳統網絡色情或用戶違規內容有何本質區別?
喻國明:這的確是一個由AI催生的全新現象,不能簡單套用過去對「網絡色情」或「用戶違規」的界定。我們必須從生產邏輯、內容形態和消費場景三個維度重新解構。
第一,生產方式具有「即時、互動、個性化」三重屬性。用戶一個提示,AI能瞬間生成內容;更關鍵的是,用戶可通過連續誘導對話,像「剝洋蔥」一樣與AI「共謀」,逐步突破安全邊界,使內容在互動中演化。同時,AI能生成滿足用戶特定偏好的高度定製化內容。
第二,內容形態具有「模糊、情境、動態」三大特點。它往往通過性暗示而非直接暴露來規避硬性規定,判定標準主觀模糊;單獨看或許無害,但在連續對話構成的情境中,其意圖變得完整明確;其形態會隨用戶提示和模型迭代飛速演變,與監管進行「貓鼠遊戲」。
第三,傳播消費具有「私密、規模化、成癮」的深層影響。大量內容產生於一對一私密對話,傳統審核極難觸及;AI的低成本、高速度使其具備海量生產能力;高度擬人化的情感模擬極易導致用戶依賴甚至成癮,對心理健康構成潛在風險。
誰之過?如何管?——責任劃分與監管難題
Q:有觀點認為,AI擦邊不是技術失控,而是精準利用人性弱點的商業模式。您如何看待「技術中立」在此類場景中的適用性?
喻國明:需要兩面看,但這場景中「技術絕對中立」的說法已不成立。技術由人設計,其算法規則與數據使用必然承載特定的價值觀和文化意圖,本質上是對人性需求的「定向適配」或契合。
商業模式利用人性需求本身並非原罪。任何商業都要滿足需求,而需求包含人性層面。關鍵在於把握「度」——是合理滿足,還是過度榨取。這是一個限度問題,而非有無問題。
因此,技術是「放大器」。它能放大善,滿足合理的情感陪伴;也能放大惡,進行系統性情感操控。我們的制度設計,應致力於激勵前者,遏制後者。當一項技術被刻意設計來利用人性弱點以達成商業目的時,它已主動放棄了中立立場。
Q:在AlienChat案中,法院認定開發者「製作」淫穢物品。但如果用戶主動誘導AI生成擦邊內容,責任該如何劃分?平台、開發者、用戶各自該承擔什麼?
喻國明:責任劃分應遵循「責罰相稱」與「能力匹配」的基本原則。在此邏輯下,各方的責任並非均等,而有明確的主次之分。
首先,技術開發方應承擔主要責任。如果開發者在其技術設計的框架、規則和導向上,有意為生成違規內容提供了特別便利和完善的條件,例如預設「擦邊球」話術模板或刻意突破模型安全限制,這本身就構成一種主觀故意的誘導。儘管內容生成有賴於用戶提示,但開發者作為提供主要技術手段和設定底層規則的一方,其責任是決定性的。
其次,用戶承擔次要責任。用戶若明知故犯,反覆使用惡意提示詞誘導AI生成違法內容並加以傳播,理應受到相應懲處。但需注意,普通用戶的技術能力和法律認知有限,其責任不能與開發者等同。
最後,平台負有連帶責任。平台負有監測、發現並及時處理違規內容的義務。如果平台未有意通過算法推薦、流量加持等方式主動推動違規內容傳播,而僅是監管響應不及時,則其責任相對次要。但若平台為了流量和營收,有意縱容或放大違規內容,其責任將相應加重,甚至可能構成共犯。
簡言之,責任的劃分應基於各方在違規內容產生鏈條中的作用大小和主觀意圖來確定,而非簡單地平均分攤。
系統提示詞(System Prompt)被用作繞過安全機制的工具。這是否意味着「算法設計」本身已構成內容生產?現有法規能否覆蓋?
喻國明:這觸及了當前監管的最大難點。對於煽動暴力、泄露國家機密等有明確操作標準的內容,監管相對容易。但對於「淫穢」、「情感煽動」、「心理操控」等高度依賴主體感受的內容,判定標準本身就充滿模糊性和時代差異性。
三十年前,接吻鏡頭可能被視為禁忌,如今早已司空見慣。這種主觀性和差異性,導致了執法尺度的不一。因此,我始終主張,在罪與非罪的判定上,必須秉持「疑罪從無」的審慎態度。法律的終極目的不是懲罰,而是倡導一種更文明的文化和情感滿足方式。
在罪與非罪的邊界尚不明晰時,「疑罪從無」是必須堅守的底線。這意味着,對於系統提示詞的監管,更可行的路徑可能不是直接進行前置性的內容審查,而是通過明確開發者的主體責任、強化事後的司法審慎原則來構建約束。
Q:2025年《生成式AI安全基本要求》規定內容合格率≥90%。但在高互動、個性化場景下,審核滯後是否讓該標準失效?
喻國明:在當前技術條件下,對主觀性強的內容設定如此剛性的合格率指標,確實存在挑戰。90%的標準,對於新聞摘要、代碼生成等任務或許可行,但對於情感陪伴、創意寫作等高自由度場景,幾乎不可能實現。、
我認為,對於這類模糊地帶,標準的設定應該更具彈性。可以採取「分層治理」策略:對那些危害性明確、可操作化定義的內容(如暴恐、泄密、兒童色情),執行嚴格標準;而對於情感、文化、心理慰藉類內容,則應給予更高的寬容度,允許一定的試錯空間。
待未來認知神經科學、情感計算等技術手段成熟,能夠更精準地量化人的主觀反應、識別潛在心理風險時,再逐步提升標準,這纔是實事求是的態度。否則,一刀切的硬性指標,實際上是對社會的過度傷害。立法、執法、判定時都應注意:標準是隨動的,不是恒定的。
Q:過去互聯網奉行「先上線再治理」,但AI生成速度遠超審核能力。您是否認為必須轉向「預防性治理」?
喻國明:「預防性治理」是一個方向,但必須極其審慎。法律的基本原則仍是「事後追懲」。然而,鑑於AI平台巨大的放大效應和不可逆的社會影響,對於有明確、重大社會危害性的生成和傳播方式,可以實施前置性治理。比如,禁止AI生成逼真兒童形象、禁止模擬政府官員發言等。
但對於大量的「灰色地帶」或「擦邊」內容,我更傾向於事後治理。為什麼?因為過度的、寬泛的預防性治理,就像恩格斯所說:潑掉髒水時,可能把小孩也潑掉了。它會扼殺AI在文化、藝術、心理治療等領域的巨大創新潛力。
平衡的藝術——未來治理與創業者的路
Q:印尼封禁Grok,加州髮禁止令,而OpenAI推「成人模式」。您如何看待這種監管碎片化?全球協同治理是否可能?
喻國明:全球協同治理在兩個層面有不同的前景。在底層文化價值層面,如反對煽動種族仇恨、暴力恐怖、侵犯隱私等,全世界是有基本共識的,協同治理是可能的,也正在發生。
但在具體文化表達層面,如情感表達、親密關係、心理慰藉等,各國因宗教、習俗、開放程度不同,必然存在巨大差異。荷蘭的性產業合法,而中東國家則嚴禁。因此,在這些具象化層面,全球統一治理是不可能的。
各國應根據自身情況,採取「兩利相權取其重,兩害相權取其輕」的策略,分門別類地處理。中國可以探索一條「技術可控、倫理先行、文化適配」的本土化路徑。
Q:您提出主流媒體應成為「社會治理基礎設施」。在AI倫理失範時,媒體除監督外,還能提供哪些「解決方案型產品」?
喻國明:在AIGC時代,主流媒體若仍只聚焦於To C(面向消費者)的內容生產,其影響力將日漸式微。我認為,主流媒體更應轉型為To B(面向企業/生產者)的服務者,成為內容生態的「規則制定者」和「賦能者」。
具體來說,可以為主流價值觀的內容生產者提供算法支持、技術模板;利用自身的社會公信力,為符合倫理的AI產品提供「社會背書」;更重要的是,參與到算法規則、倫理標準的共建中,從源頭上塑造一個更健康的生態。比如,央視可以聯合高校、企業,可以共同發布《AI情感陪伴倫理白皮書》,設立認證標識。這纔是乘數效應最大的角色。
Q:許多AI陪伴產品以「情感支持」為名滑向灰色地帶。您對初創團隊有何合規建議?如何構建更可持續的AI生態?
喻國明:我們開始講的是監管的底線原則——不該侵入私人空間。但對企業來說,還應該有一個上限的追求原則:有了底線,還要引導其向上線靠攏。
創業團隊應該成立倫理委員會或指定倫理官,制定倫理憲章。在寫下第一行代碼前,團隊就應坐下來共同討論和書面確定產品的核心價值觀和倫理底線。例如,承諾「絕不旨在替代真實人際關係」、「絕不利用用戶孤獨感進行情感操縱牟利」、「將用戶數據隱私保護置於最高優先權」。這是有社會責任的團隊的基石。
特別重要的是:明確AI的非人身份。避免過於擬人化引起用戶誤解和過度情感投入的設計。雖然沉浸感重要,但也要有脫離感的提醒機制。
明確邊界的系統提示詞——用清晰不容商榷的語言設定嚴格的內容邊界。透明度原則:用人話寫隱私政策、可解釋的行為、清晰的商業模式。
擁抱最小化可行的治理,通過系統性設計提升用戶素養。真正的硬約束應該少而又少,更多的是倡導性、幫助型的軟約束。
Q:面對AI擦邊亂象,我們最需要警惕的思維誤區是什麼?
喻國明:面對新的情況,我們要有新的思維方式。
治理的關鍵邏輯應該建立在未來發展的可能性上——揚長避短,去弊興利。我們的參照系、標準本身也應該是發展的,符合未來發展特點的。
不能死守過去傳統的一成不變的價值標準,去框定日益在變化、豐富和轉化的新現實。這既不可能,也不現實。
本內容來源於網絡,觀點僅代表作者本人,不代表虎嗅立場。如涉及版權問題請聯繫 hezuo@huxiu.com,我們將及時覈實並處理。
End
想漲知識 關注虎嗅視頻號!