
沒有通告,沒有片酬,甚至連攝像機都不曾架起,但螢幕上那個媚俗貪財的反派,卻赫然長着一張與自己極為相像的臉。
這樣的遭遇,最近發生在了一位漢服妝造博主白菜(化名)身上。
3月31日,話題「AI短劇 偷臉」登上熱搜。起因是白菜發現自己此前拍攝的照片被短劇《桃花簪》未經授權擅自使用,並通過AI技術進行了內容生成。
更令白菜不能接受的是,他的形象在劇中是一個貪財好色的人,他希望短劇製作方以及平台給自己一個正面回應。
白菜對華爾街見聞表示,目前片方沒有聯繫自己,平台聯繫他通過郵件反映問題,他已經開始取證,並聯系律師維權。白菜後續發現該短劇已將部分原來使用他照片合成的形象進行了替換,「不知道又是哪個人受了無妄之災。」
針對以上事件,紅果相關負責人回應,平台第一時間做了覈查和處置:相關AI短劇為第三方製作公司上傳。紅果已要求製作公司修改、刪除相關侵權內容。對於多次有主觀故意侵權情形的製作方,平台將視情節予以處罰。
不過,白菜的遭遇並非個例。
過去的一年裏,這個短劇不僅在市場規模上首次超過傳統電影票房,更在底層生產邏輯上完成了一次變異,極致的成本壓縮正在侵犯普通人肖像權與配音演員聲音人格權。
而行業想要長期健康地存續,這些「草台班子」的問題,仍然需要直面。

失控的偷音偷臉
要理解這場輿論風暴的烈度,就需要切入侵權發生的物理與技術現場。
白菜遭遇的,是目前AI短劇製作中最典型的一種侵權範式:定向LoRA(Low-Rank Adaptation)模型訓練與ControlNet特徵鎖定。
在過去,短劇製作方如果想省去演員成本,最多隻能使用粗劣的換臉軟件。
但如今,侵權者只需利用爬蟲技術,在各類社交平台,尤其是圖文生態繁榮的社區,批量抓取某位博主的高清照片,只需十幾到二十張不同角度的素材,就能在本地訓練出一個專屬的微調模型。
AI不僅能復現該博主的五官拓撲結構,還能精準記憶其特定的服飾紋理與妝容風格。
這種「偷臉」行為的演進路徑頗具諷刺意味。
起初,短劇盯上的是自帶流量的公衆人物。肖戰、迪麗熱巴、鞠婧禕等頭部明星是重災區,大量的AI短劇直接將明星的臉「套」在劣質的網文劇情中以博取眼球。
然而隨着大型經紀公司法務團隊的介入和維權函的密集下發,侵權者們迅速調整了策略,他們開始將目光轉向素人。
對於隱藏在暗處的短劇製作團隊而言,這是一個經過精確計算的風控策略。
普通網民缺乏輿論聲量,沒有專業的法務支撐,甚至極大概率都不會看到這部恰好使用了自己面孔的下沉市場短劇。
素人,成為這套商業邏輯裏最安全、最廉價、最取之不竭的「免費素材庫」。
如果說「偷臉」剝奪的是視覺表象,那麼「偷聲」則直接刺穿了影視作品的情感內核。就在《桃花簪》被指「AI偷臉」事件前夕,影視配音圈也迎來了史無前例的行業震盪。
近期國內頂尖配音機構729聲工場,以及季冠霖、史澤鯤等頭部配音演員,罕見地打破了行業內的隱忍,密集發布聯合維權聲明。
他們的憤怒指向了一個明確的靶點,大量短劇製作方,未經任何授權,肆意採集配音演員的聲紋數據,用於生成AI短劇的配音。
在法律定義中,聲音承載着個人的情感表達與辨識度,受《民法典》中「聲音人格權」的嚴格保護。
然而,在開源聲音克隆項目氾濫的今天,只要獲取配音演員在過往影視劇或廣播劇中的幾分鐘純淨幹音,就能克隆出一個AI聲音模型。
這種侵權對配音演員的打擊是毀滅性的。
一方面是直接的經濟利益受損。原本幾百元一分鐘的專業配音,被幾釐錢一分鐘的AI算力取代;
另一方面則是巨大的精神折磨:許多配音演員震驚地發現,自己耗費多年心血打磨的極具辨識度的聲音,正在各類充斥着擦邊、暴力、狗血劇情的劣質短劇中聲嘶力竭。
當自己的聲音被製作方強行切除並安插在拼接的賽博人物身上,配音演員們便不再容忍了。
極限降本的隱性槓桿
侵權氾濫的底層原因,深埋在短劇行業商業模式的劇變,以及製作方對「極致壓縮成本」的追求之中。
隨着以紅果短劇為代表的「免費短劇APP」異軍突起,免費模式顛覆了原有的算賬邏輯:
用戶無需為單集付費,而是通過觀看信息流廣告換取內容;平台賺取鉅額廣告費後,再根據播放時長、完播率等數據指標,與內容製作方進行分賬。
在這一模式下,平台的分發算法成為了推薦的主要角色。製作方從過去在流量池裏自主搏殺的淘金者,變成了高度依附於平台生態的「內容提供方」。
早期,為了從付費小程序手裏搶奪優質劇集,短劇平台曾推出過豐厚的「保底分成」政策。
平台承諾,只要劇集質量達標並在平台首播,無論最終數據如何,都會給予製作方一筆兜底收益。這曾被許多影視作坊視為旱澇保收的「避風港」。
轉折點在今年3月集中爆發。
當時,行業內曝出紅果開始大規模取消針對真人短劇項目的「保底+分賬」模式,轉而推行極其嚴苛的純分賬制。儘管隨後抖音集團高層出面澄清並非「全面取消」而是「調整機制」,但對於廣大中小承製方而言,處境更加艱難。
失去保底資金兜底,製作方面臨着更大商業不確定性,精心拍攝的劇集,如果上線初期的完播率沒有觸發平台的算法推薦閾值,就會被日均上新成百上千部的「劇海」淹沒,最終拿不到分賬。
巨大的不確定性,再一次扭轉了行業趨勢。
既然收益自己決定不了,製作方能掌控的生存法則只剩下一條:在前端,一些參與者開始極限壓縮製作成本。
3月以來,不少承製方叫停了真人實拍項目,開始轉向成本更低的AI短劇。
在全AI短劇領域,連群演、攝像機和拍攝場地都被徹底省去。製作方只需利用AI繪畫工具生成場景,配合特徵鎖定插件生成連環畫,一部劇的視覺成本可能被壓縮到十分之一,周期甚至縮短至48小時。
一位西安短劇從業者告訴華爾街見聞,當前AI取代真人演員的趨勢非常明顯,在平台調整分賬策略之後,「大家覺得拍真人短劇成本太高,很多老闆就不想投資了。」
該人士表示,就像短劇憑藉「極致成本和快速周轉」衝擊長視頻市場一樣,後續AI也會以相同的邏輯重塑真人短劇市場。
理清了行業極限降本的演變路徑,也就看懂了為何「偷臉」與「偷聲」亂象會在當下徹底爆發。
在一個隨時可能顆粒無收的極端生態裏,要求草根團隊去購買昂貴的正版圖庫、簽約專業畫師原創設計、按照工會標準支付聲優片酬,顯然不夠經濟。
劣幣驅逐良幣的工業齒輪中,侵權不再是法務環節的無心之失,而變成了被精心計算過,甚至被行業默許的隱性商業槓桿。
製作方的生存哲學有一定的投機性:先抓取、快生成、速上線,只要爆火就是血賺;就算日後被原作者發現起訴,短劇早過了吸金期,大不了下架視頻甚至註銷空殼公司。
違法成本低,維權成本高也是侵權屢屢發生的重要原因。當違法的代價僅僅是下架,而合法合規的成本卻高到足以拖垮整個公司時,侵權就成了一道穩賺不賠的數學題。
普通人的數字權益與演藝人員的職業尊嚴,就這樣不可避免地淪為了這台龐大短劇印鈔機下耗材。
平台「避風港」坍塌
短劇行業的下半場,如果想要真正實現從「草莽」走向「主流影視形態」的跨越,顯然需要在法律界限內重新確立遊戲規則。
面對系統性的侵權潮,單純依靠個體的零星維權無異於杯水車薪,真正的規制力量必須來自頂層設計與平台治理。
在我國現行《民法典》框架下,無論是未經許可使用他人肖像,還是擅自克隆他人聲音,都已被明確界定為侵權。
2024年,北京互聯網法院關於「AI生成聲音侵權案」的全國首案宣判,更是從司法層面確立了「未經授權使用AI克隆聲音構成侵權」的鐵律。
然而,理論的豐滿掩蓋不了實踐的骨感。
普通人在面對海量的AI生成內容時,面臨着「三高一低」的困境:發現成本高、舉證技術門檻高、訴訟時間成本高,而最終的獲賠金額極低。
花費數萬元律師費和半年時間,可能只換來幾千元的賠償和一紙道歉聲明。這種不對等的博弈,變相縱容了侵權者的肆無忌憚。
司法界亟需在未來的判例中引入更高額的「懲罰性賠償」機制,真正打疼那些以侵權為商業模式的規模化作惡者。
在這場侵權亂象中,短劇平台平台作為流量的分發樞紐和最終的利益分配者,也有把關的責任。
比如針對平台主動推流、重點分發或參與分賬的短劇內容,平台應當建立或接入具備全網級視野的「數字版權指紋庫」。在視頻上傳審核階段,強制引入基於生成式對抗網絡的AI鑑僞模型,一旦發現內容涉嫌侵權的特徵,直接阻斷發布。
紅果相關負責人表示,AI短劇作為新生業態侵權識別難度大,平台會努力提高審核能力。對於部分肖像權侵權情形,界定是否有授權、是否尊重了個人出鏡意願較為困難;且動態生成的短劇內容中,人物會伴隨表情、場景切換,面部持續變化,平台難以在審核階段進行精準識別攔截。當前已經設定相應舉報郵箱,權利人和用戶可舉報監督,一經確認,平台會第一時間處理。
技術反制的路徑
當潘多拉的魔盒被徹底打開,單純的道德呼聲與滯後的事後追責,顯然已無法阻擋大模型對高質量人類數據的貪婪吞噬。
然而,技術演進的歷史反覆證明,這從來都不是一場單向的屠殺,而是一場永無止境的「矛與盾」的較量。
如何防止個人特徵被竊取,進而將獨特的面孔與聲音轉化為受法律保護、可合法變現的數字資產,不僅關乎個人尊嚴,更在催生一條極具想象力的全新商業賽道。
面對無孔不入的AI,防禦策略正在經歷一次重要的更迭。
將時間線拉回前兩年,當生成式AI啱啱爆發時,首當其衝的插畫師群體為了抵禦模型的無差別抓取,曾廣泛採用過Nightshade(夜影)或Glaze等工具。
這類早期技術的底層邏輯是通過在圖片像素中注入干擾噪點,一旦AI模型將其抓取訓練,便會導致模型生成邏輯崩塌。
這是一種帶有「玉石俱焚」色彩的破壞性自救手段,它在特定歷史階段展現了創作者的憤怒,但也因為可能誤傷開源生態而備受爭議。
時至今日,隨着AI合規化進程的推進,數據安防技術已經走出了破壞性反擊的初級階段,全面邁向了更具建設性的隱性加密與動態確權。
目前,內容安全領域的最新趨勢是「主動防禦與內容溯源」的深度結合。行業內正在加速落地更為高階的動態反推演護盾以及內容溯源與真實性聯盟標準。
其中的運作機制正在變得尤為精密。
例如漢服妝造師在社交網絡上傳一組全新原創寫真,或者配音機構發布一段音頻時,底層系統會自動為其注入基於區塊鏈或密碼學的隱性水印與憑證。
這種護盾不再以「摧毀AI」為目的,而是構成了一道精準的「絕緣層」。它允許人類用戶的正常瀏覽與讚好,但一旦未獲授權的短劇黑產試圖利用爬蟲提取照片的面部拓撲結構,或提取音頻的聲學特徵去訓練專屬LoRA模型時,反推算法就會被激活,導致抓取程序只能提取到一堆被混淆的亂碼或無效特徵。
這種從事後防範向事前加密的轉變,真正為普通人的數字資產穿上了堅不可摧的防彈衣,催生了如Protect AI、Reality Defender、瑞萊智慧等一批AI安全相關的準獨角獸企業。
安全技術的成熟,目的是保障數據的合法流通。
堵不如疏,短劇市場每日龐大的產能需求是客觀存在的,與其讓灰色產業鏈在暗網中野蠻生長,不如通過底層加密技術的保駕護航,建立一個合法、透明的「數字資產交易市場」,由此開啓「微粒化IP」合法變現的新紀元。
何為「微粒化IP」?在傳統的影視工業中,只有一部完整的劇作或一個知名小說角色才能被稱為IP。但在AI重構的生產管線裏,顆粒度被無限縮小。
例如此事件當事人白菜的一套出圈漢服妝容、某位素人極具網感的側臉輪廓、配音演員季冠霖獨具特色的情感哭腔,在確權技術的加持下,都可以被認證為一個個獨立的、受保護的「微粒化IP」。
如果行業建立起合規的數據授權中樞,普通人或許願意將自己的面部特徵或聲紋進行官方打包,上架為合法的「AI生成素材包」。
短劇承製方無需再冒着侵權被告的風險鋌而走險,只需支付一筆微薄但高頻的單次授權費,例如每調用一次該人臉模型生成一分鐘視頻,自動扣除幾元錢,就能獲得合法的Token。
對於深受侵權之苦的配音演員而言,這更是化被動為主動的契機。
頭部聲優可以聯合具備合規資格的大型AI企業,利用安全的數據清洗技術,親自訓練併發行自己專屬的「官方正版AI聲紋包」。通過引入智能合約,聲優可以為其聲音設定極其嚴格的使用界限。
AI重塑內容生產線已是勢不可擋的浪潮。但一個試圖走向主流視野、規模直逼數百億的文娛產業,絕不可能長期建立在對普通人數字權利的掠奪之上。
在效率與尊嚴的博弈中,守住安全、合規與分配的正義,纔是AI技術長久融入商業的正途。