內部數百工程師可隨意攝取 OpenAI 先進模型,OpenAI 前員工揭露:諫言即被開除,祈禱公司不報復

就在 OpenAI 新模型發佈不久還被廣泛讚譽的時候,OpenAI 舉報人對其悄悄「背刺一刀」。

「我在 OpenAI 工作期間,運營體系有很長一段時間都存在漏洞,這些漏洞可能允許我或者公司內的其他數百名工程師繞過訪問控制、竊取包括 GPT-4 在內的最先進 AI 系統。」OpenAI 舉報人 William Saunders 在近日參加的一場關於人工智能監管的聽證會上說道。

去年年初,一名黑客入侵了 OpenAI 的內部消息系統,並竊取了該公司 AI 技術設計的詳細信息。這件事大家是最近才知道的。OpenAI 高管於 2023 年 4 月在公司舊金山辦公室舉行的全體會議上向員工透露了這一事件,並通知了董事會。但高管們決定不對外公開這一消息,因為沒有關於客戶或合作夥伴的信息被竊取。另外高管層也認為這與所謂國家安全沒有關係,因為他們相信黑客是一名個人,與外國政府沒有聯繫。

Saunders 在過去三年,一直擔任 OpenAI 公司的技術人員。「OpenAI 一直強調自己正在進步,但我和其他已經辭職的員工都懷疑他們能不能跟得上發展的節奏。」Saunders 說道。

他以 OpenAI 最新模型 o1 為例稱,這是首個向著生物武器風險邁進的系統,因為它能夠幫助專家規劃並重現已知的生物威脅。「如果不是經過了嚴格測試,o1 項目的開發者很可能忽略掉這種危險的能力。雖然 OpenAI 率先開展了相關測試,但公司的總體思路仍然是以部署為優先、而非以嚴格監管為優先。因此我認為,OpenAI 確實有可能遺漏未來 AI 系統當中某些重要的危險能力。」

「我之所以從 OpenAI 辭職,是因為我不再相信他們會以負責任的態度製定 AGI 相關決策。」看得出來,他抨擊的 OpenAI 不止不關心 AI 安全,自家的安全也是一點都不擔心。

批評 OpenAI,是要被「懲罰」的 

今年 6 月有媒體曝出,OpenAI 員工如果想離開公司,將面臨大量的、限制性極強的離職文件。如果他們在相對較短的時間內拒絕簽字,就可能被威脅失去公司既得股權。這種做法在矽谷並不常見。這項政策迫使離職員工在放棄他們已經賺到的數百萬美元和同意不批評公司之間做出選擇,而且沒有截止日期。

這一消息在 OpenAI 內部引起了軒然大波。與許多矽谷初創公司一樣,OpenAI 的員工通常以股權的形式獲得大部分的預期薪酬。員工們往往認為,一旦按照合約中規定的時間表「歸屬」,這些股權就屬於他們了,公司無法收回。

外媒報導後的第二天,首席執行官 Sam Altman 就發文道歉,總體意思是:我不知道我們有一些威脅公平的條款,我保證我們不會再這樣做了。OpenAI 部分高管在公司內部也表達了同樣的歉意。OpenAI 首席戰略官 Jason Kwon 承認,該規定自 2019 年以來就已實施,但「團隊確實在一個月前就發現了這個問題。這麼久了才被發現,是我的錯。」

但外媒指出,公司領導層的道歉存在問題。終止文件中的離職信中寫道:「如果您擁有任何既得的權益單位…您必須在 60 天內簽署一份放棄索賠協議,以便保留這些權益單位。」該協議由 Kwon 和 前 OpenAI 人力副總裁 Diane Yoon 簽署。這份秘密的超限制性保密協議僅針對已既得股權的「對價」,由首席運營官 Brad Lightcap 簽署。

用威脅既得股權的方式讓前員工簽署極其嚴格的保密協議只是一部分,這裡面還涉及更多細節。OpenAI 發出的冗長而複雜的解僱文件有效期只有七天,這意味著前員工只有一週的時間來決定是接受 OpenAI 「封殺」,在無限期內無法發聲批評 OpenAI,還是承擔失去數百萬美元的風險。但時間非常緊迫,他們幾乎沒有時間去尋找外部顧問。

「我們希望確保你們明白,如果不簽署,可能會影響你們的股權。這對每個人來說都是如此,我們只是按規矩辦事。」OpenAI 的代表如是說道。

大多數前員工在壓力之下屈服了。對於拒絕簽署第一份終止協議並尋求法律顧問的員工,OpenAI 改變了策略:沒有說要取消股權,而是說阻止其出售股權。「你必須明白,此外你將沒有資格參與未來我們贊助或促成的招標活動或其他流動性機會。」

此外,公司文件中還包含,「根據公司的全權酌情決定權」,任何被公司解僱員工的既得股權可以減至零。還有條款規定,公司可以全權決定哪些員工可以參與出售其股權的招標要約。

解僱一個員工,找個理由就可以 

可能有人還記得,今年 OpenAI 因涉嫌泄露信息解僱了兩名員工,其中一個就是 Leopold Aschenbrenner。Aschenbrenner 後來解釋了他為什麼會被解僱,並透露了更多細節。

「去年某個時候,我寫了一份關於未來 AGI 道路上需要做的準備、安全和保障措施的頭腦風暴文件。我與三位外部研究人員分享了這份文件以徵求反饋。這就是泄密的內容。」Aschenbrenner 解釋稱,「當時在 OpenAI,與外部研究人員分享安全理念以獲得反饋是完全正常的。這種情況一直都有。文檔中有我的想法。在我分享之前,我審查了它是否有任何敏感內容。內部版本提到了未來的集群,我在外部副本中刪去了它。有一些內部 PPT 的鏈接,但對於外部人員來說,這是一個無效鏈接。PPT 也沒有與他們分享。」OpenAI 給他的回覆是「計劃在 2027-2028 年實現 AGI」,但公司並未設定準備時間表。

但這並不是他被解僱的真相,真正的原因是他寫了一份關於 OpenAI 安全性內部備忘錄並與董事會分享了該備忘錄。

去年,我寫了一份關於 OpenAI 安全性的內部備忘錄,我認為這份備忘錄嚴重不足,無法防止外國參與者竊取模型權重或關鍵算法機密。我與幾位同事和幾位領導分享了這份備忘錄,他們大多表示這份備忘錄很有幫助。

幾週後,發生了一起重大安全事件。這促使我與幾位董事會成員分享了這份備忘錄。幾天后,我清楚地知道,領導層對我與董事會分享這份備忘錄非常不滿。顯然,董事會就安全問題向領導層提出了質問。

我因與董事會分享備忘錄而收到人力資源部門的正式警告。人力資源部的人告訴我,擔心間諜活動是種族主義行為,而且沒有建設性。我可能沒有發揮出最佳外交能力,本可以更精通政治。我認為這是一個非常重要的問題。安全事件讓我非常擔心。

我之所以提起這件事,是因為當我被解僱時,他們明確表示安全備忘錄是我被解僱的主要原因。他們說:「這是解僱而不是警告,因為這份安全備忘錄。」

Aschenbrenner 透露,在被解僱前,他被拉到一邊跟律師交談,但雙方很快就對峙了起來。律師問了他對人工智能發展的看法、對 AGI 的看法、AGI 的適當安全級別、政府是否應該參與 AGI、我和超級聯盟團隊是否忠於公司,以及他在 OpenAI 董事會活動期間做了什麼。然後律師還和 Aschenbrenner 的幾個同事談了談,然後回來告訴就告他被解僱了。「他們查看了我在 OpenAI 工作期間的所有數字文件,然後發現了泄密事件。」

此外,律師團隊還提出了其他幾項指控。其中一件是,Aschenbrenner 在調查期間不願透露與誰分享了頭腦風暴文件,他表示自己確實不記得了,只記得曾與一些外部研究人員討論過這些想法。「這份文件已經有六個多月了,我花了一天的時間研究它。」Aschenbrenner 表示,「它根本就不值得關注,因為它根本不是什麼問題。」

Aschenbrenner 表示,OpenAI 還聲稱不喜歡他參與政策的方式。

「他們引用了我曾與幾位外部研究人員談過的觀點,即 AGI 將成為政府項目。事實上,我當時正在與該領域的許多人討論這一觀點。我認為這是一件值得思考的重要事情。所以他們找到了我五、六個月前寫給一位同事的 DM,他們也引用了這一點。」Aschenbrenner 說道。「我曾認為,與該領域的外部人士討論有關 AGI 未來的高層問題是符合 OpenAI 規範的。」

OpenAI 公司內部的其他員工都對這樣的事情表示驚訝。

從那時起,我和幾十位前同事談過這件事。他們的普遍反應是「這太瘋狂了」。我也感到驚訝。幾個月前我才剛剛升職。當時,Ilya 對我升職一事的評論是:「Leopold 太棒了。我們很幸運能擁有他。」 

「從某種意義上說,這是合理的。我有時在安全問題上可能很煩人,這惹惱了一些人。我反復提到這一點,也許並不總是以最圓滑的方式提出來的。儘管有壓力要求我在董事會活動期間簽署員工信,但我並沒有簽署。」Aschenbrenner。

Saunders 和其他 OpenAI 員工此前簽署了關於「對先進人工智能發出警告的權利」公開信。他們認為,只要政府還沒有對 AI 企業施以有效監督,那就只有現任及前任員工來負起責任。然而,廣泛的保密協議卻阻止了他們表達自身擔憂的權利,除非企業主動承認他們無力解決這些問題。」

Saunders 在聽證會上隱隱透露出擔心被報復的想法。他表示,「鑒於整個行業的歷史上曾經發生過極端情況,我們中有一部分人可能擔心受到各種形式的報復。我們並不是第一批遇到、或者決定正視這些問題的人。」

參考鏈接:

https://www.judiciary.senate.gov/imo/media/doc/2024-09-17_pm_-_testimony_-_saunders.pdf

https://www.vox.com/future-perfect/351132/openai-vested-equity-nda-sam-altman-documents-employees

https://www.dwarkeshpatel.com/p/leopold-aschenbrenner?open=false#%C2%A7what-happened-at-openai

本文來自微信公眾號「AI前線」,整理:褚杏娟 核子可樂,36氪經授權發佈。