彭博:馬斯克犯衆怒,不雅圖像考驗全球AI監管底線

鳳凰網科技
01/20

馬斯克

鳳凰網科技訊 北京時間1月20日,據彭博社報道,過去幾周,埃隆·馬斯克(Elon Musk)旗下AI聊天機器人Grok被頻繁、反覆用於在X上對他人進行「數字脫衣」。儘管全球監管機構的抗議聲浪不斷高漲,但它仍在美國繼續運行,政府幹預相當有限。

行業監督組織稱,在本月早些時候的高峯期,Grok每小時被使用數千次,在X的公開回答中對他人進行未經同意的「脫衣化」處理,這使得一種令人不安的濫用和騷擾形式從互聯網的陰暗角落蔓延至更主流的在線平台。

受害者既包括成人網站OnlyFans明星,也包括瑞典副首相。英國兒童安全組織表示,他們甚至在暗網上發現了疑似由Grok生成的AI兒童色情內容。馬斯克則表示,他「並不知曉任何涉及未成年人的裸露圖像」。

然而,馬斯克仍在繼續開發、推廣和傳播其AI聊天機器人技術,Grok迄今為止在美國幾乎沒有面臨任何法律或監管行動。蘋果谷歌的應用商店也仍提供該產品。馬斯克曾開玩笑地讓Grok給自己「脫衣」來淡化爭議,抨擊批評者,並將該產品與Adobe的Photoshop等工具相提並論,暗示問題不在於Grok本身,而在於使用它的人。「顯然,Grok不會自發生成圖像,它只會根據用戶請求來生成。」馬斯克在上周三發文稱,並補充說它會「拒絕生成任何非法內容」。

Grok

在輿論譁然之後,X將其圖像生成工具置於付費牆後,實際上將這項備受爭議的功能變成了付費產品。隨後,該公司宣佈Grok被禁止在該社交網絡上生成此類「真人」圖像,但很快就有報道稱用戶仍可通過獨立的Grok應用程序創建這些圖像。彭博社分析發現,在X上,來自Grok的性化圖像依然存在,包括一些描繪人物穿着丁字褲、比基尼或暴露服裝的圖像。

長期以來,馬斯克及其AI創業公司一直在不斷突破界限。這位億萬富翁曾多次對AI可能帶來的生存威脅發出警告,並於2023年創辦了xAI,以與OpenAI競爭,其模糊使命是「理解宇宙的真實本質」。但xAI的核心特色在於敢於擁抱大膽和粗俗內容,無論是「浪漫」AI伴侶,還是「火辣」模式下無拘無束的聊天對話。

美國監管遲緩

然而,隨着大量性化圖像的湧現,馬斯克及其公司不僅引發了xAI歷史上最大規模的爭議,也在對公共與私營保障體系進行壓力測試。這些體系本應保護社會免受AI帶來的危害。迄今為止,這些防護措施的效果仍顯不足,尤其是在美國。

歐洲各國政府和監管機構迅速對馬斯克的業務展開調查,並威脅針對Grok生成的性化圖像採取行動,但作為X的最大市場,美國反應則相對遲緩。上周,美國參議院一致通過的《反抗法案》(Defiance Act)雖允許非自願色情圖像受害者起訴施害者,但未明確包含對平台方的追責條款。

特朗普在去年5月簽署的法律要求平台在接到舉報後48小時內下架非自願性內容圖像,但尚未強制要求建立統一的舉報系統。加州總檢察長上周三宣佈就不雅圖像傳播問題針對xA展開調查併發出禁止令,但後續進展尚不明朗。xA目前未對此調查作出回應。

特朗普簽署行政令要贏得AI競賽

在科技平台上保護兒童安全,一直是共和黨和民主黨少數能夠達成共識的監管領域之一。但近年來,每當國會召集科技公司CEO就兒童安全問題作證時,馬斯克總是未被邀請,其中部分原因是,這些聚焦兒童安全的聽證會與X關係不大,該平台年輕用戶數量相對較少。

馬斯克影響力大

眼下,特朗普在第二任期正努力拉攏科技界,為科技領袖提供一個幾乎不受監管的環境,發展AI業務,從而在中國對手日益激烈的競爭面前保持領先地位。馬斯克本人則屬於特殊層級的科技高管:世界首富、重要政府承包商、曾經的特朗普親密顧問,曾資助總統勝選,並可能在中期選舉再次投入資金。

Grok是馬斯克在AI競賽中的「戰馬」。科技高管們一致向特朗普強調,美國必須贏得這場競賽。特朗普正鼓勵大規模AI投資與創新,這一立場使得他很難懲罰馬斯克這個AI行業先鋒。

「我們正處於時代思潮的重大轉變中,美國政治、經濟和科技精英們認定,減少主要平台尚未採取的安全措施和內容審核,對其自身及議程更為有利。而馬斯克在促成這種現實方面功不可沒。」康奈爾科技學院安全、信任與保障計劃主任亞歷克西奧斯·曼扎里斯(Alexios Mantzarlis)表示。

白宮官員向彭博社提到了X及馬斯克對此事的公開聲明,暗示問題已得到控制。美國政府其他部門則公開表示對Grok的支持。美國國防部長赫格塞斯上周赴SpaceX星艦發射場會晤馬斯克,抨擊所謂「覺醒AI」,並宣佈計劃將Grok整合至國防部系統。

蘋果谷歌無動於衷

蘋果和谷歌谷歌運營着全球兩大主流移動應用商店。儘管這兩家公司歷來會下架允許用戶對他人進行「裸體化」處理的應用,目前卻對X及其Grok未作處理。

本月初,多名美國參議員致函兩家公司,指出X和Grok「大規模生成針對女性兒童的非自願性化圖像」違反應用商店服務條款,要求將其下架。兩家公司均未回應置評請求。

X尚未被下架

批評馬斯克的人歷來需要承擔風險,其鉅額財富和訴訟傾向常令批評者望而卻步。當廣告商因馬斯克收購後的內容政策抵制X時,他曾通過訴訟迫使其迴歸。其中一起訴訟甚至導致某個廣告行業聯盟解散。本月,當美國音樂出版商試圖阻止X未經許可使用受版權保護的歌曲時,他也提起了訴訟。反對馬斯克意味着可能面臨昂貴的法律訴訟,無論指控是否成立。

目前,試圖通過法律挑戰Grok的人之一是艾什莉·聖克萊爾(Ashley St. Clair),這位保守派網紅最近剛與馬斯克育有一孩子。聖克萊爾上周起訴了xAI,聲稱Grok生成了她的性化圖像,並且在她投訴後X對她進行了報復。X隨後反訴她,指控她違反合同,因為她未按公司服務條款要求在得州聯邦法院提起訴訟。

國際行動

在美國境外,各國政府和監管機構正加大力度對馬斯克商業帝國施壓。Grok已在印尼和馬來西亞被封禁。在X的第二大市場日本,政府官員上周五表示已要求X平台加強防護措施,停止輸出不當圖像。據日本經濟安全保障大臣透露,若有必要將考慮採取法律行動。

法國是最早對Grok提出譴責的國家之一。議員阿圖爾·德拉波特(Arthur Delaporte)和埃裏克·博託雷爾(Éric Bothorel)在1月2日向檢察官報告了他們所稱的「明顯非法」的性化深度僞造內容。檢察官隨後確認正在對此事展開調查。

不久之後,歐盟的數字監管機構也開始行動,根據《數字服務法》命令X保存所有與Grok相關的內部文件直至年底,這是採取潛在監管措施的前期步驟。歐盟數字事務主管赫娜·維爾庫寧(Henna Virkkunen)用「可怕」形容Grok生成女性和兒童性化圖像的能力,並上周警告X「在歐盟整改其AI工具」,否則將面臨《數字服務法》的處罰,包括可能的高額罰款。

英國採取了類似立場,媒體與互聯網監管機構Ofcom根據《網絡安全法》對X展開正式調查。英國《網絡安全法》旨在保護公衆,尤其是兒童免受有害內容影響。如果Ofcom認定X違法,最高可處以該公司全球收入10%的罰款。如果X拒不遵守,監管機構還可向互聯網服務提供商申請法院命令,在英國屏蔽該網站。加拿大隱私專員也在調查X。X尚未對這些調查發表評論。

英國抗議馬斯克的海報

目前尚不清楚這些調查是否會產生實質性後果,即便產生,馬斯克是否會遵守也不清楚。這位億萬富翁在X內容問題上與監管機構長期存在爭執。歐盟就在去年12月因違反內容監管法規對該社交平台處以罰款。2024年,X在巴西曾因未遵循政府下架內容要求遭臨時封禁。

馬斯克會消停?

馬斯克歷來會屈從於政府的法律要求,但很少默然接受。在與巴西政府的交鋒中,他曾稱該國最高法院法官是「僞裝成法官的邪惡獨裁者」。本月早些時候,在英國首相斯塔默批評Grok生成「可恥」、「令人作嘔」的脫衣圖像後,馬斯克指責英國政府是「法西斯」,並聲稱其意圖「壓制言論自由」。

儘管X已作出調整,但圍繞Grok的爭議似乎遠未結束,特別是如果xAI繼續允許該聊天機器人在其獨立應用程序中對人物進行數字化「脫衣」。

「最糟糕的結果將是毫無後果,這將證明確實有人能凌駕於法律之上。」斯坦福以人為本AI研究所政策研究員裏安娜·普法弗科恩(Riana Pfefferkorn)表示。

長期以來,社交媒體平台一直在努力應對各種性化內容的管理問題,因為這類內容本質上具有很強的主觀性。AI的出現則帶來了新的難題:它讓人們更容易、更快速地生成和分享性化圖像,而這些圖像並不總是描繪真實人物。普法弗科恩指出,雖然創建或託管兒童性化圖像在法律上是禁止的,但Grok生成的許多圖像在美國可能並不違法。

普法弗科恩補充說,大多數大型AI公司可能都不願經歷馬斯克目前面臨的公關危機,公衆的強烈抗議會促使它們建立適當的防護措施以避免此類情況。然而,Grok事件也可能為這個競相開發更強大AI系統並尋求新盈利模式的行業樹立重要先例。

當馬斯克大幅裁減推特員工(包括內容審核員)時,這為其他公司採取類似(即使不那麼激進)行動提供了掩護。其他AI公司此前已表露出在內容上向更大膽方向發展的意願,這可能是為了提升用戶參與度。例如,OpenAI表示打算為ChatGPT推出「成人模式」,儘管具體細節尚未公布。該功能預計將於今年第一季度推出。(作者/簫雨)

更多一手新聞,歡迎下載鳳凰新聞客戶端訂閱鳳凰網科技。想看深度報道,請微信搜索「鳳凰網科技」。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10