OpenAI 死裡逃生?加州 AI 法案剛剛被斃,LeCun 李飛飛吳恩達狂喜

轉自 | 新智元

編輯 | 編輯部 HYZ

【導讀】喜大普奔!就在剛剛,加州州長宣佈:否決加州AI限制法案。LeCun李飛飛吳恩達激動地奔走相告,額手稱慶。而強烈支持法案的Bengio和Hinton則對此保持沉默。OpenAI、Google、Meta紛紛逃過大劫。

重磅!

今天淩晨,美加州州長Gavin Newsom正式宣告:否決SB-1047法案!

對於全世界開發者們來說,SB-1047法案取消,意味著Meta、Google等大廠的開源模型,再次繼續可用。

這個決定可謂是眾望所歸。AI圈大佬們激動地奔走相告,在否決中出了大力的吳恩達、LeCun、李飛飛,則尤其開心。

加州州長否決意味著什麼?

SB-1047法案就真的終結了。

「臭名昭著」的SB-1047規定,SB 1047將會通過追究開發者的責任,來防止AI系統造成大規模人員傷亡,或引發損失超過5億美元的網絡安全事件。

消息一出,就引來學界和業界巨大的反對聲浪。

要知道,全球50家頂尖GenAI企業,有32家便紮根在加州,它們在定義AI未來起著關鍵作用。

加州辦公室新聞稿中介紹,過去一個月裡,Gavin簽署了18個GenAI法案,卻唯獨否決了SB-1047。

在過去30天里,州長簽署了一系列法案,以打擊Deepfake內容,以及保護表演者的數字肖像權等等在過去30天里,州長簽署了一系列法案,以打擊Deepfake內容,以及保護表演者的數字肖像權等等

這項法案初衷是好的,但實際上存在一些嚴重的問題。

他表示,我認為這不是保護公眾免受AI帶來真正威脅的最佳方法。

SB-1047沒有考慮到AI系統是否部署在高風險環境中、是否涉及關鍵決策,或敏感數據使用。相反,法案對最基本的功能——部署大模型系統,也應用了嚴格的標準。

在SB-1047被否決的過程中,AI教母李飛飛起到的作用不容忽視。

史丹福教授李飛飛開心地表示,自己能和StanfordHAI一起,為加州負責任的AI治理鋪平道路,深感榮幸。

AI泰鬥吳恩達也感謝了李飛飛對於SB-1047的公開反對,稱她的努力能推動更理性的AI政策,從而保護研究和創新。

就在前幾天,SB-1047法案即將塵埃落定之際,吳恩達和LeCun還在焦急地奔走呼籲、發起投票,擔心一旦通過,開源AI和整個AI生態系統都會產生寒蟬效應。

如今,全加州的AI公司們終於鬆了一口氣。

州長否決信:不予簽署

「本人謹此退回參議院法案1047,不予簽署。」

全文地址:https://www.gov.ca.gov/wp-content/uploads/2024/09/SB-1047-Veto-Message.pdf

在信中,州長承認,SB-1047對於AI部署可能帶來的威脅過於放大了。

而且,法案僅關注最昂貴的大規模模型,其實是給了公眾一種「錯誤的安全感」。

他指出,即使是較小的專有模型,可能也會一樣危險。

總之,法案對AI實施的監管,是以「遏製利於公眾利益的創新」為代價的。

州長表示,法案對最基本的功能,也適用最嚴格的標準,這並不是保護公眾買免受AI技術威脅的最佳辦法。

而最好的解決辦法是,是一個不以AI系統和能力的實證發展軌跡分析為依據的方案。

AI大佬深惡痛絕

這樣的結局,對於除了Bengio、Hinton的絕大多數人,都可謂非常圓滿。

提到SB-1047,一眾大佬們是深惡痛絕。

事情的來龍去脈是這樣的。

去年,加州州長簽署了一項行政命令,強調加州面對GenAI態度要更加審慎,讓AI更加道德、透明、可信。

而今年2月,加州直接擬定了法案,名為《SB-1047前沿AI大模型安全創新法案》,對於大模型安全、透明的使用給出了更具體的條例。

法案地址:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

然而,其中有多項不合理內容,簡直是指名道姓地給某些公司卡脖子。

成本超1億的模型,得防止造成「重大傷害」

比如有一條規定,開發、訓練成本超1億美元,且浮點運算超過10^26次的大模型,一旦開源後被有人用來做非法的事,那麼模型開發商也會受到嚴重處罰。

要知道,Meta的Llama 3模型,Google的Gemma模型等,都符合這個條件。

這個規定顯然極有爭議。

比如,如果有人入侵自動駕駛系統並導致事故,開發該系統的公司也要被追責嗎?

按照法案的說法,開發者需要評估其模型的衍生產品、防止他們可能造成的任何傷害,包括客戶微調模型、以其他方式修改模型(越獄)或與其他軟件組合。

然而一旦開源軟件發佈,人們可以直接將模型下載到個人設備上,因此開發者根本無從得知其他開發者或客戶的具體操作。

另外,法案中也有多處定義模糊。

比如AI模型的「關鍵傷害」,被描述為大量傷亡、超過5億美元的損失或其他「同等嚴重」的傷害,但開發者在什麼條件下要被追責?要承擔何種責任?

法案對此都語焉不詳。

並且,法案適用於花費超過1億美元訓練的AI模型,或花費超過1000萬美元微調現有模型的開發者,也就讓許多小型科技公司落入被打擊範圍。

SB-1047還有一些不合理規定,比如如果公司開放模型給其他國家使用,還得提交客戶的所有資料,包括客戶的身份證、信用卡號、帳號等。

開發者還必須創建能夠解決AI模型風險的測試程序,並且必須每年聘請第三方審計員來評估其AI安全實踐。

對於那些基於模型打造的AI產品,則需要製定相應的安全協議來防止濫用,包括一個關閉整個AI模型的「緊急停止」按鈕。

法案被詬病:對真正的風險視而不見

更多批評者認為,這個法案實在是過於杞人憂天了。

它不僅會阻礙AI的創新,而且對當今AI的安全性也沒有幫助。

更諷刺的是,法案用所謂的「緊急開關」預防世界末日,但對Deepfake、虛假信息等已出現的安全風險卻視而不見。

雖然後來的修正案在措辭上更加寬鬆,減少了加州政府追究AI實驗室責任的權力。

但即便如此,SB-1047也會給OpenAI、Meta、Google等大廠帶來不小的影響。

而對一些初創企業來說,這種打擊甚至會是毀滅性的。

如今塵埃落地,大公司和小初創們都可以長出一口氣了。

圖靈巨頭決裂

SB-1047,甚至讓圖靈三巨頭為此「決裂」。

LeCun、李飛飛、吳恩達為代表的大佬們,多次公開反對不滿。

甚至,LeCun還照搬了之前要求暫停AI研究時的原梗——請暫停AI立法六個月!

而圖靈三巨頭中的另外兩位——Yoshua Bengio和Geoffrey Hinton,卻出人意料地強烈支持這項法案通過。

甚至還覺得,現在的條款定得有些太過寬鬆了。

作為高級人工智能技術和政策研究人員,我們寫信表達對加州參議院法案1047的強烈支持。

SB 1047概述了對這種技術進行有效監管的基本要求。它沒有實施許可制度,不要求公司在訓練或部署模型之前獲得政府機構的許可,它依賴於公司自行評估風險,甚至在發生災難時也不對公司嚴格追責。

相對於我們面臨的風險規模,這是一項相對寬鬆的立法。

取消該法案的基本措施將是一個歷史性的錯誤——這一錯誤將在一年內變得更加明顯,因為下一代更強大的AI系統將被發佈。

但Bengio和Hinton顯然不是主流。

總結來說,各家科技巨頭和一眾大佬對此的立場如下。

參考資料:參考資料:

https://x.com/AndrewYNg/status/1840525690770542797

https://x.com/ylecun/status/1840521403503649049

Here is what’s illegal under California’s 18 (and counting) new AI laws

https://www.gov.ca.gov/2024/09/29/governor-newsom-announces-new-initiatives-to-advance-safe-and-responsible-ai-protect-californians/

https://www.latimes.com/entertainment-arts/business/story/2024-09-29/gov-gavin-newsom-vetoes-ai-safety-bill-scott-wiener-sb1047