
3月24日,OpenAI宣布將關停Sora。那個曾讓我們驚嘆“現實不存在了”的AI視頻生成平臺,在推出六個月之后,黯然退場。
有人說,這是商業戰略調整,有人說,它敗于算力成本。但還有一個決定性的死因,很少被人提及:版權。
Sora 在訓練過程中采用黑盒式訓練,其中可能使用了大量未明確授權的網絡視頻數據。因此推出以來,一直有版權方如迪士尼,對Sora提出強烈反對,甚至將OpenAI告上法庭。任天堂的社長也曾在股東大會上,提出過生成式AI存在知識產權問題。
任何行為,都是一種選擇,而OpenA關停Sora的選擇,或許給市面上所有AI視頻生成工具都提了一個醒:在當前法律和產業環境下,沒有妥善處理版權問題,這項技術失敗幾乎是注定的。

Sora的版權爭議,更像是一個最顯眼的靶子,槍打出頭鳥。實際上,Sora的黑箱式訓練并不唯一,在業內是常態,所以其他視頻生成模型也或多或少存在版權問題,只不過要么有限開放,主攻單一市場,比如只給B端商業客戶提供服務,曝光度低,版權問題沒有完全暴露;要么刻意規避了迪士尼角色這樣的高風險IP,避免被“全球最強法務部”找上門。
一旦被版權方盯上,都和OpenAI一樣面臨訴訟風險。比如某國產AI視頻工具也在北美加州被好萊塢三大巨頭迪士尼、華納、環球起訴了,理由是生成了未經授權的《星球大戰》《小黃人》等作品里的角色。
可以說,AI巨頭們應對版權問題的選擇,普遍是“先上車后補票”。
先使用免費抓取的公開網絡數據集進行訓練,其中包含大量受版權保護的內容。直到產品上線之后,被《紐約時報》或個人創作者投訴,再談合作、付費,來洗白數據來源。
OpenAI前CTO米拉·穆拉蒂就曾公開表示:對于Sora是否使用了受版權保護的視頻進行訓練,自己“不太有把握”。

還有一個形成對比的例子是,有著嚴格反爬蟲機制、付費墻的內容平臺,比如科學雜志期刊和付費數據庫,能更好地控制被AI侵權的風險。即使 AI能聯網搜索到一些發表的論文,也只能獲取公開頁面內容,無法繞過登錄或付費驗證。
對版權的嚴格保護,讓科學內容變成了為數不多的、很少被侵權的一方凈土,以至于很多通用AI在回答科學問題時,只能基于不完整信息推斷。但這些版權保護方式,又很難被影視/動漫等文娛機構和創作者所借鑒。
原因之一,是付費墻擋不住。科研論文可以精確控制訪問,只有訂閱者能看全文,AI 也只能在封閉系統內運行。但視頻屬于大眾文化消費品,YouTuber主要靠廣告與社群盈利,視頻內容大多是公開的,AI可以輕易獲取。
其次是灰色地帶的確權太難。科學內容有明確的數據、條文,侵權容易被認定。而視頻的視覺風格、角色形象、敘事邏輯等都可以被AI學習后,進行抽象、重組、泛化,AI作品可以用“撞腦”、撞梗等理由搪塞過去,創作者維權的舉證難度很大。
所以,先上車后補票,請求原諒而非請求許可,成了AI巨頭在視頻生成領域的普遍選擇。既然版權機制已經無力保護創作者,那它還有必要存在嗎?

一方面,公開的文娛內容在AI訓練中被大規模抓取,個體創作者幾乎無力阻止;另一方面,嚴格限制的科學內容,又會拖慢AI在科研領域的進步。
于是,一些技術先鋒、未來主義者、激進派認為,版權制度本就是工業時代的產物,早已淪為大資本的壟斷工具,不僅沒讓普通創作者受益,反而阻礙了技術普惠,不如徹底廢除,全面開放算了。

還有人認為,Sora這類AI工具讓很多普通人圓了導演夢,帶來切切實實的利好,讓更多用戶加入創作行列,也可以激發創新,應該保障這類多數人的福祉。
但問題真的如此簡單嗎?
這其實是一個典型的“電車困境”,需要大眾在大企業和少數創作者、多數用戶和少數創作者之間做出非此即彼的選擇,卻忽略了一個事實:今天被無償學習的視頻創作者,明天就可能是你我。
AI一開始學習的是插畫師、作家、攝影師、音樂制作人等邊緣創作者的作品,文藝界在抗議AI侵權,隨后就擴展到了白領、藝術家、碼農等更廣闊的群體。一些高級打工人的技能被AI無償學習、被蒸餾成skill,這何嘗不是一種“風格學習”呢?

創作者,可以是每一個靠獨特技能謀生的普通人。或許直到AI威脅到自己的飯碗,大家才理解了編導、up主、YouTuber等視頻創作者的憤怒。
而版權制度的核心作用,并不是在人類中劃分陣營,是保護大企業還是小個體,也不只關于怎么分錢。它的價值,在于承認創作者權利的合法性。
1710年,《安妮女王法》首次明確,作者是作品的版權所有者,徹底顛覆了以往以印刷商為中心的壟斷體系。三百年來,正是這套制度激勵了無數個體的創造。今天,我們或許需要改革版權,來適配AI的需求,但不能用“版權資本化”,來遮蔽掉版權制度對個體權利的肯認。
它就像勞動者權益保護法,雖然現實中難以嚴格執行八小時工作制,但它的存在本身,就確立了創作者權益的正當性。

面對 Sora 等AI視頻生成工具對原創內容的無償使用,創作者群體開始反擊。總體來看,制度性力量、行業巨頭的反擊,比較有成效。而個體的、口頭的抵抗,大多微弱而無力。
能對Sora這類工具產生約束力的,主要是立法部門和內容巨頭的雙重施壓。
美國版權局此前的判例中,要求生成的內容必須有AI的標識,如果使用對應風格,要自動加上版權方logo。
針對AI融梗的“風格學習”,版權巨頭們也采取了態度嚴肅的反對措施。好萊塢三大經紀公司,迪士尼、華納、環球等影視巨頭,都曾向OpenAI發出法律警告,要求停止默認使用藝人形象與作品訓練 Sora。這倒逼OpenAI 推出Sora 2時所采用的“選擇退出”機制,允許版權方申請從訓練集中刪除其作品。

一些創作者采用技術工具,在視頻/圖片中嵌入人眼不可見的擾動像素,或者水印,來干擾AI對風格的學習,也能起到一定的作用。
而徹底無效的反擊,一個是利益談不攏。比如行業企業試圖推動的授權付費+分成制,隨著Sora的下線,宣告破產。另一種反擊是語言上的魔法攻擊,一些導演、攝影師公開聲明“不使用 Sora”,并呼吁同行抵制,但根本無法阻擋廣大用戶拿AI視頻玩梗,現實中毫無約束力。
只有立法、巨頭這樣的組織力量,才能與技術資本抗衡,這就是人類創作在AI時代的殘酷現實。如何呢?又能怎?

人類與AI巨頭的版權拉鋸戰,最終以Sora的主動關停而收尾,但這并非人類的勝利,不過是AI巨頭在持續的版權訴訟、創作者集體抵制與倫理爭議中,放棄在泥潭中繼續掙扎,選擇鳴金收兵。
Sora之死,仿佛是一則醒世寓言,提醒我們,AI的種種還缺乏一個明確的紅線。
政治學家福山曾提出:面對技術進步,我們必須人為地,甚至武斷地畫出紅線。即使81公里的時速并不比79公里更危險,但必須設定80公里這道明確的紅線。
放到AI領域,這道紅線,就是AI發展的前提尊重人類的勞動成果與創作主權。缺乏這道不可逾越的紅線,就會出現模糊地帶,滋生無序與反噬,無法真正獲得社會的接納與認同。提前設定明確的原則性禁令,禁止AI無償使用和融梗人類作品,這一道紅線所保護的,不只是人類創作者,也是AI技術工具的開發者與企業。來自創作者的抵抗,加速了Sora的下線,何嘗不是OpenAI及其用戶的損失呢?
福山提出,立法者必須采取行動,設立相關規則與機制,在迅速的科技變遷中有所作為。如果立法者不去正面承擔這些責任,其他的社會機構與行為主體將會替代它們做出決定。
顯然,這一次,是人類創作者做出了決定,就是抵制AI、抵抗Sora。Sora的下線,暫時回避了紅線缺失的各種矛盾。但別忘了,市面上還有一個個AI視頻生成工具,它們將一次又一次觸碰那根人心中的隱形紅線,直到它終于清晰、明確地出現在版權法中。
那時,人類創作者與AIGC技術,才能真正握手言和。希望這根紅線,不會來得太晚。

審核編輯 黃宇
-
AI
+關注
關注
91文章
40746瀏覽量
302386 -
Sora
+關注
關注
0文章
88瀏覽量
840
發布評論請先 登錄
從政策到落地:光譜相機如何賦能耕地精準監管
車載功放 “失真紅線” 守護者|華潤微 CD7377CZ:以雙極技術重構座艙音頻可靠性
發布元服務配置應用分類、標簽和資質信息(僅分發手表設備)
OpenAI Sora 2模型上線微軟Azure AI Foundry國際版
看點:谷歌Veo 3.1迎來重大更新硬剛Sora 2 12英寸硅片國產龍頭西安奕材今日申購
DRM Kit數字版權保護服務介紹
Sora2五天下載量破百萬!超越ChatGPT增長速度,App Store免費榜霸榜第一
華邦電子安全閃存助力高溫環境下設備穩定運行
人工分選終將淘汰?自動化如何重構電池制造品質紅線?
泰克科技解析AI服務器電源架構的技術演進
錫膏混用,哪些情況要命,哪些情況可救?一文說透混用紅線
版權紅線與Sora之死
評論