泄露的 Sora 效果炸裂,還一次成型,OpenAI 白嫖醜聞鬧大了,吃瓜網民看到了進化版模型

OpenAI 於 2 月份首次展示了其文本轉影片 AI 模型 Sora,但此後一直未提供任何有關何時發佈的有意義的更新。

近日,據多家外媒消息,OpenAI Sora 遭遇泄露,但泄露的並非模型權重,而是泄漏者在 Hugging Face 上公開了試用接口。據悉,此次泄露是通過 Hugging Face 的一個前端進行的,允許公眾使用似乎是 Sora 的更快版本來生成影片。

泄露信息被發佈在 Hugging Face 上,據稱出自曾參與測試流程的個人(其用戶名為「PR-Puppets」)之手,發佈者同時提出了關於創新、勞動與企業責任之間的激烈衝突。與泄露模型一同發佈的還有一封致「企業 AI 霸權」的公開信,提到其能夠生成解像度高達 1080p 的 10 秒影片片段。

從泄漏的新模型中對比 2 月的版本,新模型生成的影片解像度更高,且物體的運動軌跡更順暢。

在 X 上,有用戶稱,「泄漏的模型有一個完整的提示,並且是一次性拍攝完成的。」

模型泄漏幾個小時後,泄露的訪問權限被關閉,OpenAI 和 Hugging Face 緊急撤銷了身份驗證令牌。

在這場泄漏事件中,數百名藝術家通過漏洞測試、反饋和實驗性工作,為這家市值 1500 億美元的公司提供了無償勞動。儘管有數百人免費貢獻,但只有少數人會通過比賽被選中,他們創作的 Sora 影片片段將得到放映,而這些報酬與 OpenAI 獲得的大量 PR 提交和營銷價值相比,顯得微不足道。

這種做法實際上是在使價值數十億美元的品牌非正規化,利用藝術家進行無償的研發和 PR 提交工作。此外,每項成果在分享之前都必須經過 OpenAI 團隊的批準。這個早期訪問計劃似乎更多地與 PR 和廣告相關,而不是創意表達和批評。

Sora 模型是一種文本生影片生成器,因其能夠創建具有良好時間穩定性的高保真短影片而引發轟動。目前爭議的核心,主要集中在技術進步、道德問題以及對藝術創作領域的衝擊等方面。

作為一套擴散模型,它能夠將文本提示詞轉換為最長一分鐘的影片。運用來自各種模型的技術,Sora 實現了精確的文生視覺效果以及大為增強的畫面時間連貫性。OpenAI 對於 Sora 無疑給予了厚望,雄心勃勃地將其定位為實現通用 AI 的基礎性一環。但必須承認,令人印象深刻的 Sora 技術同樣有其局限性:在生成複雜物理現象和保障內容安全等方面,這款新模型的表現仍然有待改進。

正如 Hugging Face 討論版塊中的描述,Sora 是一次「令人著迷的技術實力展示」。該模型以影片形式製作「視覺連貫表達」的能力被譽為生成式 AI 又一里程碑式的成就。

泄露事件以及背後的動機

Hugging Face 上泄露 Sora 模型的公開信。Hugging Face 上泄露 Sora 模型的公開信。

Sora 模型的泄露似乎出自測試人員和貢獻者們(特別是來自創意產業的測試人員和貢獻者)的不滿情緒。批評者聲稱,OpenAI(目前估值已超過 1500 億美元)奪取了他們的勞動果實,依靠無償或報酬極低的貢獻來完善其模型。這些測試人員中包括視覺藝術家和影片製作者,他們提供了寶貴的反饋和創意靈感,但卻發現自己得不到任何公平的認可或者經濟補償。

一位 Hugging Face 匿名貢獻者在評論中指出,「這不僅僅是無償工作的問題,而是尊重的問題。OpenAI 將我們的付出視為素材,而非創造性專業知識。這根本不能叫合作,而是赤裸裸的壓榨。

這種反抗行為無疑是對 AI 開發當中,對創造性專業知識的廣泛商品化作出的抗議。此番泄露也是經過精心策劃,旨在凸顯 OpenAI 涉嫌無視藝術勞動的經濟價值,也呼應了 AI 道德語境中已經普遍存在的不滿情緒。

這批參與者表示,短短三小時之後,「OpenAI 就暫時關閉了所有藝術家對 Sora 的早期訪問權限。」

道德與法律的複雜性

Sora 爭議也重新引發了關於版權和知識產權的爭論。OpenAI 此前曾因將受到版權保護的素材用於訓練目的而受到窩裡橫,並以屬於合理使用為自己辯護。儘管 OpenAI 已聲明 Sora 的訓練數據包含授權與公開數據集,但該公司對於具體細節一直保持沉默,也因此令人們產生了懷疑。這種訓練素材的不透明性,加上創作者和出版商們的持續訴訟,也將技術進步與知識產權之間緊張的對抗關係擺上了檯面。

對 Sora 等生成式 AI 模型的安全擔憂,促使 OpenAI 實施了保護措施,包括檢測分類器和內容政策執行機制。然而,這些措施可能還不足以解決泄露模型的潛在濫用問題。Hugging Face 用戶評論稱,「如此大規模的泄露破壞了 OpenAI 施加道德保障的努力,反而將不受製約的權力交到了任何擁有訪問權限的人手中。」

對 AI 和創意產業產生廣泛影響

Sora 泄露事件,象徵著 AI 時代下一場整體性的權力鬥爭。一方面,OpenAI 將自己定位為創新與實用相融合的先驅,而 Sora 則代表一種實現影片創作大眾化的工具。但另一方面,此番泄露事件也凸顯出系統性矛盾,例如創造性勞動被低估、以及 AI 依賴人類創造力所帶來的道德困境。

來自用戶「PR-Puppets」的評論:我們發佈這款工具,是為了讓每個人都有機會體驗這款約 300 位藝術家參與貢獻的新功能,免費且不受限制地進行訪問。我們並不反對將 AI 技術作為藝術工作使用(如果反對,我們可能也不會受邀參加此計劃)。我們所反對的,是這項計劃的發佈方式以及該工具在公開發佈之前的開發方式。我們之所以有此行動,是希望 OpenAI 變得更開放、對藝術家們更友好,在公關宣傳之外真正做點實事。

Hugging Face 上的另一位貢獻者也提到,「AI 成果並非憑空而來。它站在創意人員的肩膀之上,而這些創意人員往往沒有得到認可。Sora 泄露事件不啻為一記警鍾,提醒我們缺少道祖高域束的創新就是剝削。」

對於創意專業人士來說,此番泄露則可謂是一把雙刃劍。雖然它提示了當前體制的不公平,但也有可能破壞藝術家與技術開發者之間合作互信的關係。展望未來,這一事件顯然想要呼籲人們重新考慮企業與創意社區之間的交互方式,強調透明度、公平報酬並對知識產權表達尊重。

一場針對 AI 的清算

Sora 泄露事件的後果,為生成式 AI 的未來發展提供了重要教訓。隨著技術不斷模糊創造力與計算之間的邊界,對於道德框架的需求也變得愈發迫切。OpenAI 對這種情況的處理,可能會為組織如何駕馭創新、道德和方向指引之間複雜的相互作用開創先例。

歸根結底,Sora 的爭議只是 AI 行業所面臨的廣泛挑戰的一種縮影:如何在追求進步與尊重及保護 AI 背後人類勞動之間取得平衡,才是問題的關鍵。正如一位觀察家對當前 Hugging Face 討論做出的有力總結那樣,「這不僅僅是一次泄露,更是一場清算。」

參考鏈接:

https://www.forbes.com/sites/moinroberts-islam/2024/11/26/openais-sora-tool-leaked-by-group-of-aggrieved-early-testers/

本文來自微信公眾號「AI前線」,整理:核子可樂、冬梅,36氪經授權發佈。