最近幾週,人工智慧新創公司 OpenAI 一直在社群媒體上宣傳其新的人工智慧影片產生器 Sora。上週,該公司還透露,在《Sora》向公眾發布之前,它已經為好萊塢演員和導演提供了首次觀看和嘗試該技術的機會。
OpenAI 於 3 月 24 日發布了一篇題為“Sora 的第一印象”的博文,重點介紹了多個創意工作室和導演使用視頻生成器創作的作品。
有媒體專家推測,Sora將對電影創意產業產生重大顛覆性影響。
半島電視台採訪了一位好萊塢高層,由於話題敏感,這位高層要求不透露姓名。當被問到第一次看到Sora的能力時他的第一個反應是什麼時,他說:這就像看著一個殺人犯,但同時又很美麗。立即令人印象深刻且令人恐懼。 」
一些業內人士已經感受到了 Sola 帶來的震動。
在二月接受《好萊塢報道》採訪時,演員、電影製作人和工作室老闆泰勒佩里(Tyler Perry) 表示,在看到Sola 的視頻製作能力後,他將擱置在亞特蘭大耗資8 億美元擴建工作室的計劃。
他補充說:“所以我非常擔心在不久的將來我們會看到大量失業。我真的、真的有這樣的感覺。”
索拉是什麼?
Sora 是 OpenAI 的文字到影片生成人工智慧模型。 與 ChatGPT 類似,您輸入文字提示,但 Sora 不是以文字格式產生提示問題和答案,而是產生長達一分鐘的影片。
下面是 Open AI 發布的 Sora 功能的影片範例。
- 提示範例: “電影預告片講述了一位 30 歲宇航員戴著紅色羊毛針織自行車頭盔、藍天、鹽沙漠、電影風格和 35 毫米膠片拍攝的鮮豔色彩的冒險經歷。”
OpenAI 執行長 Sam Altman 也在他的 X 帳戶上發布了幾個範例,包括:
- 提示範例: “由社交媒體影響者奶奶在質樸的托斯卡納鄉村廚房舉辦的自製麵疙瘩烹飪指導課程,配有電影燈光。”
https://t.co/rmk9zI0oqO pic.twitter.com/WanFKOzdIw
— 山姆‧奧爾特曼 (@sama) 2024 年 2 月 15 日
索拉遠非完美。 如果你仔細看“烹飪教學”視頻,當“老太太”停止攪拌後,她右手拿著的勺子就消失了。儘管超現實,但 Sora 創作的一些影片中仍然存在識別贗品的能力。
這就提出了另一個問題:這樣的產品在產業中的表現如何。
我們的好萊塢內部人士說: 「人類清楚地了解自己在技術上的地位,科技比我們想像的更強大,所以我們會在另一邊變得更大更好。」但表演、寫作、導演、作曲、合作等的渴望是與生俱來的。人類。我哪裡也不去。那麼這對業內人士來說是件壞事嗎?答案是否定的,然後是,然後不是。這對產業本身有利嗎?是的。
索拉如何運作?
與 ChatGPT 類似,使用者輸入文字指令、問題或提示,然後 AI 做出回應(在 Sora 的例子中,是產生的影片序列)。
為此,Sora 結合了機器學習和自然語言處理 (NLP) 來產生視訊序列。 NLP 是一種理解電腦和人類語言之間互動的人工智慧。機器學習使 Sora 能夠隨著時間的推移不斷改進,透過模式和回饋來改進其反應。
Sora 使用「電腦視覺」來理解和解釋圖像和影片中的視覺訊息。電腦視覺是一個軟體框架,它告訴 Sora 從包括視覺語言的文字描述中「識別」現實世界物體、人和環境的視覺表示。例如,提示「貓在移動」或「海浪拍打海洋」表示特定的屬性或特徵。 Sora 需要這種視覺語言來解釋文字提示並準確地表示物件的視覺描述。
Sora可以收集不完整或部分數據,並將其轉化為高度逼真且易於理解的影片內容。 Sora 就像一個超強大的縮放工具。從大的、模糊的色塊或物體開始,然後根據提示將它們調整為更小、更明確的形狀。
Sora 對於電影產業的創意工作意味著什麼?
目前尚不清楚索拉將能夠接管哪些任務,即使有些任務通常由人類創造者承擔。人工智慧即時重建攝影機鏡頭、燈光和角色的能力對於導演和電影製作人來說將是未知的領域。但電影專家預測這將是整個產業的重大變革。
一位不願透露姓名的好萊塢消息人士對半島電視台表示:“我們並不認為這對製作構成威脅,而是對我們目前知道如何製作的方式構成威脅。”我們過去已經看到過這種情況發生,特別是在後期製作中,當人們開始在筆記型電腦上而不是昂貴的大型後製室進行編輯時。許多人在這一轉變期間喪生,而其他人則突然可以負擔得起合適的編輯,而無需承擔郵局所需的管理費用。 」
當被問及誰的工作可以被人工智慧生成器取代時,他補充說: “問‘誰將被取代?’的問題可能是錯誤的。我認為這是一個被削減和取代的系統。幾年後,也許‘導演’一詞將指代向人工智能發出指令的人。”其餘的將完全以數字方式完成。如果這種方法能吸引觀眾、賺錢並讓人們感受到人類的情感,那麼對我們大多數人來說,遊戲就結束了。 」
版權和法律問題是什麼?
Sora 從現有圖像和影片中取得內容,並根據使用者提示重新建立影片。到底誰擁有該播放的影片?Sora 是否必須向所有照片和影片創作者以及用於製作最終影片的角色支付費用?這些問題尚未完全解答。
上述許多問題的背後是如何追蹤所製作內容的發起者,包括最終影片中包含的個人。
正如技術律師 Paul Haswell 在他的 YouTube 頻道上解釋的那樣: 「如果有人只是使用人工智慧模型,而它無意中吸入了一些數據,而這些數據最終看起來像你,那麼你有什麼權利——你的個人數據實際上是?你如何證明你的數據被使用來創造這種相似性? ”
此外,他補充道: 「突然你發現自己是一部完全由人工智慧生成的肥皂劇中的演員。你可能舉世聞名,但卻不被欣賞。你的聲音不是低沉的,而是沙啞的。它可能是聲音,但臉會是一樣的。例如,你本質上只是被人工智能利用、欺騙並反芻成另一種形式,所以對它沒有信任。”
還有國際考慮因素,因為版權法因國家而異。如果影片在一個國家/地區製作並在另一個國家/地區分發,則適用誰的版權法?
專門從事版權和商標法的娛樂律師華萊士·柯林斯(Wallace Collins)在他的部落格中寫道,索拉將「指數級」升級所有這些問題,導致內亂和其他形式的社會混亂。他警告說,這甚至是有可能的。
「人工智慧已經在擾亂創作者的版權法,尤其是在音樂領域,並挑戰娛樂界既定的版權和智慧財產權規範。如果沒有一些常識性的監管,Sora 就可以被最卑鄙的個人用來製作抹黑的視頻。”根據完全捏造但完全真實的外表來誤導、恐嚇人們,或者煽動騷亂。”
這些問題是如何決定的?
圍繞生成人工智慧的法律辯論的很大一部分圍繞著誰應該被視為這些工具所產生的內容的創造者的問題,因為它涉及「合理使用」。合理使用版權法允許有限使用受版權保護的資料或將受版權保護的作品轉換為另一作品。
目前,還沒有法律先例涵蓋文本到視頻生成的當前進展。然而,去年12月,《紐約時報》在紐約南區(美國曼哈頓地方法院)對OpenAI的ChatGPT(文字轉換工具)和微軟的Copilot提起版權侵權訴訟。 《泰晤士報》聲稱,OpenAI 的 ChatGPT 為用戶提供的內容與《泰晤士報》已經提供的內容完全相同。
《紐約時報》的律師伊恩‧克羅斯比 (Ian Crosbie) 表示: “被告試圖搭《紐約時報》在新聞業的巨額投資的便車,在未經許可或付費的情況下開發替代產品。無論以何種標準衡量,這都不是合理使用。”
今年 2 月,OpenAI 向聯邦法院提出動議,要求駁回《紐約時報》的訴訟。
2 月份,曼哈頓法院又對 OpenAI 提起兩起版權侵權訴訟。 一項訴訟是 The Intercept 提起的,另一項是 Raw Story 和 AlterNet 共同提起的訴訟。