OpenAI死裡逃生?加州AI法案剛剛被斃,LeCun李飛飛吳恩達狂喜

【導讀】喜大普奔!就在剛剛,加州州長宣佈:否決加州AI限制法案。LeCun李飛飛吳恩達激動地奔走相告,額手稱慶。而強烈支持法案的Bengio和Hinton則對此保持沉默。OpenAI、Google、Meta紛紛逃過大劫。

重磅! 

今天淩晨,美加州州長Gavin Newsom正式宣告:否決SB-1047法案! 

對於全世界開發者們來說,SB-1047法案取消,意味著Meta、Google等大廠的開源模型,再次繼續可用。 

這個決定可謂是眾望所歸。AI圈大佬們激動地奔走相告,在否決中出了大力的吳恩達、LeCun、李飛飛,則尤其開心。 

加州州長否決意味著什麼? 

SB-1047法案就真的終結了。 

「臭名昭著」的SB-1047規定,SB 1047將會通過追究開發者的責任,來防止AI系統造成大規模人員傷亡,或引發損失超過5億美元的網絡安全事件。 

消息一出,就引來學界和業界巨大的反對聲浪。 

要知道,全球50家頂尖GenAI企業,有32家便紮根在加州,它們在定義AI未來起著關鍵作用。 

加州辦公室新聞稿中介紹,過去一個月裡,Gavin簽署了18個GenAI法案,卻唯獨否決了SB-1047。 

在過去30天里,州長簽署了一系列法案,以打擊Deepfake內容,以及保護表演者的數字肖像權等等 

這項法案初衷是好的,但實際上存在一些嚴重的問題。 

他表示,我認為這不是保護公眾免受AI帶來真正威脅的最佳方法。 

SB-1047沒有考慮到AI系統是否部署在高風險環境中、是否涉及關鍵決策,或敏感數據使用。相反,法案對最基本的功能——部署大模型系統,也應用了嚴格的標準。 

在SB-1047被否決的過程中,AI教母李飛飛起到的作用不容忽視。 

史丹福教授李飛飛開心地表示,自己能和StanfordHAI一起,為加州負責任的AI治理鋪平道路,深感榮幸。 

AI泰鬥吳恩達也感謝了李飛飛對於SB-1047的公開反對,稱她的努力能推動更理性的AI政策,從而保護研究和創新。 

就在前幾天,SB-1047法案即將塵埃落定之際,吳恩達和LeCun還在焦急地奔走呼籲、發起投票,擔心一旦通過,開源AI和整個AI生態系統都會產生寒蟬效應。 

如今,全加州的AI公司們終於鬆了一口氣。 

州長否決信:不予簽署

「本人謹此退回參議院法案1047,不予簽署。」 

全文地址:https://www.gov.ca.gov/wp-content/uploads/2024/09/SB-1047-Veto-Message.pdf 

在信中,州長承認,SB-1047對於AI部署可能帶來的威脅過於放大了。 

而且,法案僅關注最昂貴的大規模模型,其實是給了公眾一種「錯誤的安全感」。 

他指出,即使是較小的專有模型,可能也會一樣危險。 

總之,法案對AI實施的監管,是以「遏製利於公眾利益的創新」為代價的。 

州長表示,法案對最基本的功能,也適用最嚴格的標準,這並不是保護公眾買免受AI技術威脅的最佳辦法。 

而最好的解決辦法是,是一個不以AI系統和能力的實證發展軌跡分析為依據的方案。 

AI大佬深惡痛絕

這樣的結局,對於除了Bengio、Hinton的絕大多數人,都可謂非常圓滿。 

提到SB-1047,一眾大佬們是深惡痛絕。 

事情的來龍去脈是這樣的。 

去年,加州州長簽署了一項行政命令,強調加州面對GenAI態度要更加審慎,讓AI更加道德、透明、可信。 

而今年2月,加州直接擬定了法案,名為《SB-1047前沿AI大模型安全創新法案》,對於大模型安全、透明的使用給出了更具體的條例。 

法案地址:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047 

然而,其中有多項不合理內容,簡直是指名道姓地給某些公司卡脖子。 

成本超1億的模型,得防止造成「重大傷害」

比如有一條規定,開發、訓練成本超1億美元,且浮點運算超過10^26次的大模型,一旦開源後被有人用來做非法的事,那麼模型開發商也會受到嚴重處罰。 

要知道,Meta的Llama 3模型,Google的Gemma模型等,都符合這個條件。 

這個規定顯然極有爭議。 

比如,如果有人入侵自動駕駛系統並導致事故,開發該系統的公司也要被追責嗎? 

按照法案的說法,開發者需要評估其模型的衍生產品、防止他們可能造成的任何傷害,包括客戶微調模型、以其他方式修改模型(越獄)或與其他軟件組合。 

然而一旦開源軟件發佈,人們可以直接將模型下載到個人設備上,因此開發者根本無從得知其他開發者或客戶的具體操作。 

另外,法案中也有多處定義模糊。 

比如AI模型的「關鍵傷害」,被描述為大量傷亡、超過5億美元的損失或其他「同等嚴重」的傷害,但開發者在什麼條件下要被追責?要承擔何種責任? 

法案對此都語焉不詳。 

並且,法案適用於花費超過1億美元訓練的AI模型,或花費超過1000萬美元微調現有模型的開發者,也就讓許多小型科技公司落入被打擊範圍。 

SB-1047還有一些不合理規定,比如如果公司開放模型給其他國家使用,還得提交客戶的所有資料,包括客戶的身份證、信用卡號、帳號等。 

開發者還必須創建能夠解決AI模型風險的測試程序,並且必須每年聘請第三方審計員來評估其AI安全實踐。 

對於那些基於模型打造的AI產品,則需要製定相應的安全協議來防止濫用,包括一個關閉整個AI模型的「緊急停止」按鈕。 

法案被詬病:對真正的風險視而不見

更多批評者認為,這個法案實在是過於杞人憂天了。 

它不僅會阻礙AI的創新,而且對當今AI的安全性也沒有幫助。 

更諷刺的是,法案用所謂的「緊急開關」預防世界末日,但對Deepfake、虛假信息等已出現的安全風險卻視而不見。 

雖然後來的修正案在措辭上更加寬鬆,減少了加州政府追究AI實驗室責任的權力。 

但即便如此,SB-1047也會給OpenAI、Meta、Google等大廠帶來不小的影響。 

而對一些初創企業來說,這種打擊甚至會是毀滅性的。 

如今塵埃落地,大公司和小初創們都可以長出一口氣了。 

圖靈巨頭決裂

SB-1047,甚至讓圖靈三巨頭為此「決裂」。 

LeCun、李飛飛、吳恩達為代表的大佬們,多次公開反對不滿。 

甚至,LeCun還照搬了之前要求暫停AI研究時的原梗——請暫停AI立法六個月! 

而圖靈三巨頭中的另外兩位——Yoshua Bengio和Geoffrey Hinton,卻出人意料地強烈支持這項法案通過。 

甚至還覺得,現在的條款定得有些太過寬鬆了。 

作為高級人工智能技術和政策研究人員,我們寫信表達對加州參議院法案1047的強烈支持。 

SB 1047概述了對這種技術進行有效監管的基本要求。它沒有實施許可制度,不要求公司在訓練或部署模型之前獲得政府機構的許可,它依賴於公司自行評估風險,甚至在發生災難時也不對公司嚴格追責。 

相對於我們面臨的風險規模,這是一項相對寬鬆的立法。 

取消該法案的基本措施將是一個歷史性的錯誤——這一錯誤將在一年內變得更加明顯,因為下一代更強大的AI系統將被發佈。 

但Bengio和Hinton顯然不是主流。 

總結來說,各家科技巨頭和一眾大佬對此的立場如下。 

參考資料: 

https://x.com/AndrewYNg/status/1840525690770542797 

https://x.com/ylecun/status/1840521403503649049 

https://techcrunch.com/2024/09/29/here-is-whats-illegal-under-californias-18-and-counting-new-ai-laws/ 

https://www.gov.ca.gov/2024/09/29/governor-newsom-announces-new-initiatives-to-advance-safe-and-responsible-ai-protect-californians/ 

https://www.latimes.com/entertainment-arts/business/story/2024-09-29/gov-gavin-newsom-vetoes-ai-safety-bill-scott-wiener-sb1047 

本文來自微信公眾號「新智元」,編輯:編輯部 HYZ ,36氪經授權發佈。