版權紅線與Sora之死

藍鯨財經
04/15

文|腦極體

3月24日,OpenAI宣佈將關停Sora。那個曾讓我們驚歎「現實不存在了」的AI視頻生成平台,在推出六個月之後,黯然退場。

有人說,這是商業戰略調整,有人說,它敗於算力成本。但還有一個決定性的死因,很少被人提及:版權。

Sora 在訓練過程中採用黑盒式訓練,其中可能使用了大量未明確授權的網絡視頻數據。因此推出以來,一直有版權方如迪士尼,對Sora提出強烈反對,甚至將OpenAI告上法庭。任天堂的社長也曾在股東大會上,提出過生成式AI存在知識產權問題。

任何行為,都是一種選擇,而OpenA關停Sora的選擇,或許給市面上所有AI視頻生成工具都提了一個醒:在當前法律和產業環境下,沒有妥善處理版權問題,這項技術失敗幾乎是註定的。

Sora的版權爭議,更像是一個最顯眼的靶子,槍打出頭鳥。實際上,Sora的黑箱式訓練並不唯一,在業內是常態,所以其他視頻生成模型也或多或少存在版權問題,只不過要麼有限開放,主攻單一市場,比如只給B端商業客戶提供服務,曝光度低,版權問題沒有完全暴露;要麼刻意規避了迪士尼角色這樣的高風險IP,避免被「全球最強法務部」找上門。

一旦被版權方盯上,都和OpenAI一樣面臨訴訟風險。比如某國產AI視頻工具也在北美加州被好萊塢三大巨頭迪士尼、華納、環球起訴了,理由是生成了未經授權的《星球大戰》《小黃人》等作品裏的角色。

可以說,AI巨頭們應對版權問題的選擇,普遍是「先上車後補票」。

先使用免費抓取的公開網絡數據集進行訓練,其中包含大量受版權保護的內容。直到產品上線之後,被《紐約時報》或個人創作者投訴,再談合作、付費,來洗白數據來源。

OpenAI前CTO米拉·穆拉蒂就曾公開表示:對於Sora是否使用了受版權保護的視頻進行訓練,自己「不太有把握」。

還有一個形成對比的例子是,有着嚴格反爬蟲機制、付費牆的內容平台,比如科學雜誌期刊和付費數據庫,能更好地控制被AI侵權的風險。即使 AI能聯網搜索到一些發表的論文,也只能獲取公開頁面內容,無法繞過登入或付費驗證。

對版權的嚴格保護,讓科學內容變成了為數不多的、很少被侵權的一方淨土,以至於很多通用AI在回答科學問題時,只能基於不完整信息推斷。但這些版權保護方式,又很難被影視/動漫等文娛機構和創作者所借鑑。

原因之一,是付費牆擋不住。科研論文可以精確控制訪問,只有訂閱者能看全文,AI 也只能在封閉系統內運行。但視頻屬於大衆文化消費品,YouTuber主要靠廣告與社群盈利,視頻內容大多是公開的,AI可以輕易獲取。

其次是灰色地帶的確權太難。科學內容有明確的數據、條文,侵權容易被認定。而視頻的視覺風格、角色形象、敘事邏輯等都可以被AI學習後,進行抽象、重組、泛化,AI作品可以用「撞腦」、撞梗等理由搪塞過去,創作者維權的舉證難度很大。

所以,先上車後補票,請求原諒而非請求許可,成了AI巨頭在視頻生成領域的普遍選擇。既然版權機制已經無力保護創作者,那它還有必要存在嗎?

一方面,公開的文娛內容在AI訓練中被大規模抓取,個體創作者幾乎無力阻止;另一方面,嚴格限制的科學內容,又會拖慢AI在科研領域的進步。

於是,一些技術先鋒、未來主義者、激進派認為,版權制度本就是工業時代的產物,早已淪為大資本的壟斷工具,不僅沒讓普通創作者受益,反而阻礙了技術普惠,不如徹底廢除,全面開放算了。

還有人認為,Sora這類AI工具讓很多普通人圓了導演夢,帶來切切實實的利好,讓更多用戶加入創作行列,也可以激發創新,應該保障這類多數人的福祉。

但問題真的如此簡單嗎?

這其實是一個典型的「電車困境」,需要大衆在大企業和少數創作者、多數用戶和少數創作者之間做出非此即彼的選擇,卻忽略了一個事實:今天被無償學習的視頻創作者,明天就可能是你我。

AI一開始學習的是插畫師、作家、攝影師、音樂製作人等邊緣創作者的作品,文藝界在抗議AI侵權,隨後就擴展到了白領、藝術家、碼農等更廣闊的群體。一些高級打工人的技能被AI無償學習、被蒸餾成skill,這何嘗不是一種「風格學習」呢?

創作者,可以是每一個靠獨特技能謀生的普通人。或許直到AI威脅到自己的飯碗,大家才理解了編導、up主、YouTuber等視頻創作者的憤怒。

而版權制度的核心作用,並不是在人類中劃分陣營,是保護大企業還是小個體,也不只關於怎麼分錢。它的價值,在於承認創作者權利的合法性。

1710年,《安妮女王法》首次明確,作者是作品的版權所有者,徹底顛覆了以往以印刷商為中心的壟斷體系。三百年來,正是這套制度激勵了無數個體的創造。今天,我們或許需要改革版權,來適配AI的需求,但不能用「版權資本化」,來遮蔽掉版權制度對個體權利的肯認。

它就像勞動者權益保護法,雖然現實中難以嚴格執行八小時工作制,但它的存在本身,就確立了創作者權益的正當性。

面對 Sora 等AI視頻生成工具對原創內容的無償使用,創作者群體開始反擊。總體來看,制度性力量、行業巨頭的反擊,比較有成效。而個體的、口頭的抵抗,大多微弱而無力。

能對Sora這類工具產生約束力的,主要是立法部門和內容巨頭的雙重施壓。

美國版權局此前的判例中,要求生成的內容必須有AI的標識,如果使用對應風格,要自動加上版權方logo。

針對AI融梗的「風格學習」,版權巨頭們也採取了態度嚴肅的反對措施。好萊塢三大經紀公司,迪士尼、華納、環球等影視巨頭,都曾向OpenAI發出法律警告,要求停止默認使用藝人形象與作品訓練 Sora。這倒逼OpenAI 推出Sora 2時所採用的「選擇退出」機制,允許版權方申請從訓練集中刪除其作品。

一些創作者採用技術工具,在視頻/圖片中嵌入人眼不可見的擾動像素,或者水印,來干擾AI對風格的學習,也能起到一定的作用。

而徹底無效的反擊,一個是利益談不攏。比如行業企業試圖推動的授權付費+分成制,隨着Sora的下線,宣告破產。另一種反擊是語言上的魔法攻擊,一些導演、攝影師公開聲明「不使用 Sora」,並呼籲同行抵制,但根本無法阻擋廣大用戶拿AI視頻玩梗,現實中毫無約束力。

只有立法、巨頭這樣的組織力量,才能與技術資本抗衡,這就是人類創作在AI時代的殘酷現實。如何呢?又能怎?

人類與AI巨頭的版權拉鋸戰,最終以Sora的主動關停而收尾,但這並非人類的勝利,不過是AI巨頭在持續的版權訴訟、創作者集體抵制與倫理爭議中,放棄在泥潭中繼續掙扎,選擇鳴金收兵。

Sora之死,彷彿是一則醒世寓言,提醒我們,AI的種種還缺乏一個明確的紅線。

政治學家福山曾提出:面對技術進步,我們必須人為地,甚至武斷地畫出紅線。即使81公里的時速並不比79公里更危險,但必須設定80公里這道明確的紅線。

放到AI領域,這道紅線,就是AI發展的前提尊重人類的勞動成果與創作主權。缺乏這道不可逾越的紅線,就會出現模糊地帶,滋生無序與反噬,無法真正獲得社會的接納與認同。提前設定明確的原則性禁令,禁止AI無償使用和融梗人類作品,這一道紅線所保護的,不只是人類創作者,也是AI技術工具的開發者與企業。來自創作者的抵抗,加速了Sora的下線,何嘗不是OpenAI及其用戶的損失呢?

福山提出,立法者必須採取行動,設立相關規則與機制,在迅速的科技變遷中有所作為。如果立法者不去正面承擔這些責任,其他的社會機構與行為主體將會替代它們做出決定。

顯然,這一次,是人類創作者做出了決定,就是抵制AI、抵抗Sora。Sora的下線,暫時迴避了紅線缺失的各種矛盾。但別忘了,市面上還有一個個AI視頻生成工具,它們將一次又一次觸碰那根人心中的隱形紅線,直到它終於清晰、明確地出現在版權法中。

那時,人類創作者與AIGC技術,才能真正握手言和。希望這根紅線,不會來得太晚。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10