OpenAI影片模型Sora被惡意泄露,又拉馬斯克背鍋?

11月27日淩晨,OpenAI的文生影片模型Sora,被人惡意泄露了API,使其短暫地開放了1小時左右。

據瞭解,此次泄露事件是由於自今年年初OpenAI首次預告了其文本轉影片AI模型 Sora後,一直沒有提供任何具體的更新。導致一群參與OpenAI新型文本轉影片AI模型Sora的測試藝術家,因對公司的不滿而泄露了該模型的早期訪問權限。

在OpenAI介入並關閉相應權限之前,已經有不少人製作了AI影片並流出。此次對於OpenAI會造成什麼樣的影響呢?

藝術家們的憤怒

據悉,泄露者通過AI開發平台Hugging Face發佈了一個與Sora API相關的項目,利用早期訪問的認證token,創建了一個前端界面,允許用戶生成影片。通過這個前端,任何用戶都可以輸入簡短的文字描述,生成最長10秒、解像度高達1080p的影片。

隨後,許多用戶在社交媒體上分享了生成的影片示例,這些影片大多帶有OpenAI的視覺水印。然而,短暫地開放了1小時左右,前端界面就停止了工作,外界猜測OpenAI和Hugging Face可能已經撤銷了訪問權限。

而且,這些藝術家在Hugging Face這一公共AI模型平台上發佈了他們的抗議信,聲稱自己在測試過程中被公司利用,成為 「無償的研發和公關工具」。

在這封公開信中,藝術家們表示:「親愛的企業AI領主們,我們獲得Sora的測試權限時,被承諾是早期測試者和創意合作夥伴。然而,我們認為自己只是被引誘進入一種‘藝術洗白’的過程,為Sora做宣傳。」 他們強調,藝術家不是公司的 「免費bug測試員、宣傳工具、訓練數據或驗證token」。

有意思的是,在公開信相關網站上,它獲得了122名聯名支持者,其中甚至出現了馬斯克的名字。但考慮到簽名系統不需要嚴格的身份認證,暫時不能確定其是否為馬斯克本人。

在事件發生後,當有媒體聯繫OpenAI時,OpenAI並未證實Sora泄露的真實性,但強調參與 「研究預覽」 的藝術家是自願的,並不需要提供反饋或使用該工具。

科技漩渦認為,年初OpenAI首次向世界展示了Sora,其生成影片的時長、質量讓人耳目一新,但幾乎一年時間過去了,OpenAI對Sora還沒有有效更新,不過這還不是最可怕的,如果當它的正式版本發佈後,已經屬於落後的技術,那才是OpenAI的悲哀。

OpenAI的安全問題

Sora相關項目的泄露很容易讓人們聯想到安全的問題,如果這個事件繼續發酵,很容易讓大家對利用大量數據進行訓練的AI公司失去信任。

而且,這樣的安全隱患隨著一位已辭職的OpenAI團隊負責人的發言變得越來越接近,他表示,科技巨頭微軟斥巨資支持的OpenAI正在解散其聚集於AI安全研究的「AGI Readiness」團隊,該團隊曾經負責向這家AI初創公司提供如何處理與應對越來越強大的AI技術方面的解決方案與建議,以及提供當今世界是否準備好管理這些技術方面的建議。「AGI Readiness」團隊曾經的團隊主管表示,希望在外部繼續AGI領域的相關研究。近期越來越多跡象表明,OpenAI似乎全身心投入AI創收,無暇顧及AI安全。

而在本月初,OpenAI再痛失一員大將,OpenAI安全研究副總裁Lilian Weng發出長信,官宣離開OpenAI的安全團隊。

今年9月,OpenAI宣佈其安全與保安委員會將成為獨立的董事會監督委員會,該委員會於今年5月成立,負責處理有關安全流程的爭議。該委員會最近結束了為期90天的審查,對OpenAI的流程和保障措施進行了評估,然後向董事會提出了建議。

高管離職和董事會變動的消息也是繼今年夏天圍繞OpenAI的安全問題和爭議日益增多之後傳出的,此時OpenAI與Google、微軟、Meta和其他公司正處於生成式人工智能軍備競賽的風口浪尖——據預測,這個市場將在十年內達到1萬億美元的營收規模——因為各行各業的公司似乎都急於增加人工智能聊天機器人和代理,以避免被競爭對手甩在身後。

據The Information援引一位瞭解相關會議情況的人士透露,今年夏天,在一些並未公開的會議上,奧特曼的團隊向美國國家安全官員展示了「草莓」模型。

報導指出,通過向政府官員展示一項尚未發佈的技術,OpenAI可能為人工智能開發者樹立了新標準,尤其是在先進人工智能日益成為潛在安全隱患的今天。此次演示可能是OpenAI努力向政策製定者提高透明度的一部分,但如果政策製定者認為該項技術形成威脅,那麼他們可能給公司帶來麻煩。

不過,一些業界人士對此並不買賬,因為OpenAI並未向公眾提升透明度。AI初創公司Abacus.AI CEO Bindu Reddy表示,封閉的OpenAI將他們最好的大模型藏在背後,以此來取得領先優勢。「如果沒有開源AI,我們都會完蛋,我們可能會把文明的控制權交給1到2家公司。」

寫在最後

雖然這次藝術家們的泄露只是抒發出自己的不滿,好像沒有造成更大的影響,但OpenAI的ChatGPT平台被曝出一系列沙盒漏洞,用戶竟能在本不該接觸的環境中遊刃有餘,文件上傳、命令執行甚至文件結構瀏覽,這令人不禁想起黑客神秘的入侵操作。這些安全問題的出現,進一步凸顯了OpenAI在網絡安全方面的潛在風險。

本文來自微信公眾號「科技漩渦」,作者:賈桂鵬,36氪經授權發佈。