權限被故意泄露,OpenAI暫停Sora訪問
每經記者:蔡 鼎 實習記者 嶽楚鵬 每經編輯:蘭素英
一直被外界寄予極高期望的OpenAI文生視頻AI模型Sora自今年2月首次展示以來,就沒有任何關於何時正式發佈的消息了。當地時間11月26日,一些據稱參與了Sora測試的藝術家泄露了該模型的訪問權限(API),以抗議OpenAI對他們的壓榨行爲。
當日,公共AI模型社區Hugging Face突然出現了一個文生視頻的項目。項目團隊使用他們的身份驗證令牌(可能來自早期訪問系統)創建了一個前端,讓所有Hugging Face的用戶可以使用Sora生成視頻。
通過這一前端,用戶可以通過輸入簡短的文字描述來生成分辨率高達1080p的10秒視頻。但項目創建三個小時後,OpenAI就關閉了所有藝術家對Sora的早期訪問權限。目前該項目已無法使用。在短短的三小時內,用戶通過這一項目生成了87個視頻併發布了出來。
目前OpenAI並沒有公開確認所謂的Sora泄露是否屬實。但是OpenAI強調,參與其“研究預覽”是“自願的,沒有義務提供反饋或使用該工具”。
OpenAI暫停Sora訪問權限這一舉動也暴露出AI行業的透明度問題。隨後,該藝術家團體發佈了一個公開信網站,鼓勵任何與他們有相同觀點的人簽署這封公開信。截至發稿,這封信已經收到550個簽名,包括馬斯克。
藝術家們怒了
當地時間11月26日,一小羣參與Sora測試的藝術家在Hugging Face泄露了Sora的訪問權限,以表達對OpenAI的不滿。項目團隊使用他們的身份驗證令牌(可能來自早期訪問系統)創建了一個前端,讓所有Hugging Face的用戶可以使用Sora生成視頻。
此前,OpenAI向數百名藝術家開放了Sora的早期使用權,以測試這款新的AI視頻生成器。但部分藝術家認爲,OpenAI利用了他們的無償勞動,並利用他們來提升公司形象。
爲引起外界對OpenAI這一行爲的關注,他們在公共AI模型社區Hugging Face上發佈了一個在線項目,允許公衆使用Sora生成視頻。
隨項目同時發佈的還有一封言辭激烈的公開信。在信中,藝術家們將OpenAI比作“中世紀的封建領主”,譴責他們利用了藝術家的無私貢獻,卻並沒有給出合理的報酬。“我們獲得了Sora的使用權,並承諾成爲早期測試者、紅隊成員和創意合作伙伴。然而,我們認爲,我們被引誘進行‘藝術洗白’,以告訴世界Sora對藝術家來說是一個有用的工具。”
這封信充斥着對OpenAI的不滿,藝術家們寫道:“我們不是你的無償研發人員。我們不是你的免費錯誤測試人員、PR(公關)傀儡、訓練數據和驗證令牌。”
儘管參與模型測試的藝術家有數百名,但只有少數作品進行展映,而且報酬極爲有限,與OpenAI獲得的巨大公關和營銷價值相比,簡直是微不足道。更讓這些藝術家們憤怒的是,“每個影片都需要OpenAI團隊的批准才能分享。這個早期訪問計劃似乎更多關注的是公關和廣告,而不是創作表達和批評。”
他們在信中強調,“我們並不反對將AI技術作爲藝術工具使用(如果我們反對,可能就不會參加這個項目)。我們不同意的是藝術家項目的推出方式,以及該工具在可能公開發布之前的呈現方式。我們發佈這個聲明,希望OpenAI能變得更加開放,對藝術家更加友好,並在支持藝術方面不只是公關作秀。”
他們還呼籲其他藝術家使用開源的視頻生成工具來抵制OpenAI這種閉源公司。“開源視頻生成工具讓藝術家能夠在沒有門檻、商業利益或服務於任何公司的公關目的下,探索前衛藝術。我們也鼓勵藝術家使用自己的數據集來訓練自己的模型。”
但在藝術家們上線Sora API項目後三小時,OpenAI迅速切斷了訪問權限。OpenAI發言人Niko Felix稱,公司將暫停所有用戶對Sora的訪問,同時調查情況。但是他拒絕說明這個項目是不是真鏈接到了Sora模型。“Sora仍處於研究預覽階段,我們正努力在創造力與更廣泛的強大安全措施之間取得平衡。”
Felix同時說道:“我們alpha版本的數百名藝術家塑造了Sora的發展,幫助確定新功能和保障措施的優先級。參與是自願的,沒有提供反饋或使用該工具的義務。我們很高興爲這些藝術家提供免費訪問權限,並將繼續通過贈款、活動和其他計劃爲他們提供支持。我們相信AI可以成爲一種強大的創意工具,並致力於讓Sora既實用又安全。”
AI研發被指缺乏透明度
在OpenAI暫停Sora訪問權限後,該藝術家團體發佈了一個公開信網站,鼓勵任何與他們有相同觀點的人簽署這封公開信。
截至發稿,這封信已經收到550個簽名,與OpenAI極其不對付的馬斯克也在其中。
這次事件在AI行業中並不常見,因爲早期測試人員的反饋受到公司的嚴格控制,而且嚴厲的批評很少公開。通常,公司會親自挑選外部人員提前訪問系統,在某些情況下,公司會要求這些用戶簽署保密協議或獲得批准,然後才能公開分享系統生成的任何圖像、視頻或文本響應。
但最近,越來越多的AI安全專家批評這種做法對獨立研究產生了寒蟬效應,降低了透明度,並阻礙了對公司行爲的問責。斯坦福大學的基礎模型透明度指數顯示,沒有一家主要的基礎模型開發商能夠提供足夠的透明度(最高得分54分,滿分100分),這揭示了AI行業缺乏透明度。
OpenAI的員工此前也指責公司強迫員工簽署“封口協議”,不允許離職員工發表對公司的負面言論,否則公司可以收回員工已有股權。離職員工也不得對外公開這些協議內容。
爲此,今年6月,OpenAI以及谷歌DeepMind的一批員工聯合發佈了一份名爲《對AI發出警告》的公開信。
公開信預警,AI技術存在加劇不平等、操縱和誤導信息,失去控制並威脅人類的風險。AI公司技術迭代的同時產生了大量安全相關的非公開信息,它們沒有主動披露的動機。監管部門對此難以形成有效制約,只能由現任或前任員工要求它們向公衆負責。
上述員工在公開信中對包括OpenAI在內的AI公司提出了4點呼籲:⒈不強迫員工簽訂禁止批評公司的協議;⒉爲公司現任和前任員工提供匿名的安全反饋機制;⒊允許現任和前任員工向董事會、監管機構、其他安全機構提出對公司技術安全的擔憂;⒋公司不對公開分享風險相關機密信息的現任和前任員工進行報復。
正如Hugging Face的一則評論所說,“AI並非憑空而來。它建立在創意人員的肩膀上,而這些創意人員往往沒有得到認可。Sora泄密事件敲響了警鐘:沒有道德的創新就是剝削。”