美國按下州權AI監管”暫停鍵”,人工智能治理走向”野蠻生長”?
美國的人工智能公司或將迎來春天。2025年5月11日,美國眾議院能源和商業委員會通過了一項提案,禁止美國各州在十年內監管人工智能和自動決策系統,後者被定義為「實質性影響或取代人類決策」的系統。
乍一看,這種表述過於寬泛,因為它涵蓋了此前美國各州立法中對人工智能的廣泛定義,而旨在規範人工智能的州法律更是數不勝數。據統計,2024年美國各州立法機構審議了近 700 項人工智能法案,其中已有113 項成為正式法律。
一位表示反對的民主黨眾議員簡•沙科夫斯基(Jan Schakowsky)表示,該提案是「給大型科技公司的一份巨額禮物」。如果暫停令最終得以通過,幾乎肯定會在美國引發一場聲勢浩大的法律挑戰。這不僅關乎美國聯邦和各州之間的權力關係,更關涉到全球「人工智能創新與監管」的宏大議題。
自從ChatGPT橫空出世以來,人工智能監管和如何監管的分歧從未停止。如果說,2024年是生成式人工智能的監管政策之年——全球各國分別製定了大量的監管文件(包括歐盟著名的《人工智能法案》),那麼,2025年是否將成為推翻一切監管努力的反轉之年呢?
一、十年「去監管化」實驗:美國政策範圍解析
該法案是德克薩斯州參議員泰德•迪拉告魯斯特別大力推崇的一項提議,其中關於人工智能的條款規定,「任何州或政治分支機構不得執行任何監管人工智能模型、人工智能系統或自動決策系統的法律或法規。」

其中「人工智能模型、人工智能系統或自動決策系統」的定義——從ChatGPT等流行的商業模型到那些幫助決定誰能被僱傭或尋找住房的系統,賦予了該禁令相當廣泛且模糊的法律含義,因此它很可能將禁止大量現行法律和新法律提案。
除了像《科羅拉多州人工智能法案》這樣針對高風險人工智能系統的法律,禁令還將禁止執行其他常見類型的立法提案,例如就業領域的提案以及管理基礎模型開發的提案。
幾週前,馬克•朱克伯格在公開採訪中談論Meta人工智能戰略,他提到聊天機器人可以作為朋友,甚至作為治療師,來應對人類日益嚴重的孤獨感。如果這項規定通過成為法律,那麼類似猶他州對心理健康聊天機器人的監管限制將不會存在,朱克伯格就可以滿懷信心地推動將 Meta 打造成一種準治療師類型的服務。
不過,這項禁令明確將其適用範圍限制在僅適用於人工智能系統而非其他技術系統的州和地方法規。如果州或地方法律是(A)由聯邦法律施加,或(b)由普遍適用的法律施加,該法律將「提供類似功能」的非涵蓋模型和系統與涵蓋的人工智能模型或系統同等對待,則該法律將不必受到10年執行暫停期的約束。
因此從法律意圖來說,這項禁令可能不會影響公民權利、消費者保護、隱私或其他對有害結果一視同仁的法律,無論這些結果是否由人工智能系統促成。
但是從實際執行方面,很難說以上法律不會受到禁令的影響。例如,當人們使用聊天機器人來戒除賭癮,而這些數據可能直接被賭場的市場部門從某些渠道獲得,並用於賭博廣告的精準投放。屆時,法律和監管機構對於此類行為可能無法產生規製的作用。另外,如果生物識別技術的法律保護範圍沒有超出聯邦對人工智能系統的定義,那麼像美國伊利諾伊州《生物識別信息隱私法》這樣的法律的執行會否受到影響,仍是未知數。
二、創新優先VS安全底線:美國禁令的政策目標
雖然禁令的文本並未明確說明,但美國眾議院能源和商業委員會之所以有此提議,似乎是基於這樣的論點:暫停執行複雜且相互矛盾的監管人工智能的州法律將有助於政府部門獲取人工智能系統——如果商業可用的人工智能因各州人工智能法律的拚湊而發展受阻,聯邦政府就無法有效且高效地實現系統的現代化。
就在禁令發佈的前幾天,美國參議院商務、科學和運輸委員會舉辦了一場關於「贏得人工智能競賽」的聽證會,來自整個人工智能供應鏈的知名人士出席了聽證會,其中包括基礎設施、硬件和軟件公司。整個聽證圍繞人工智能治理問題進行了坦誠討論。
泰德•迪拉告魯斯在聽證會上直接抨擊前總統祖•拜登關於人工智能的行政命令,認為這一行政令「激發了州立法機構的類似努力,並有可能給初創企業、開發者和人工智能用戶帶來沉重的合規成本負擔」。迪拉告魯斯似乎反對所有對人工智能的干預,稱這些干預將造成的「愛管閑事的官僚主義」。
美國不乏支持這類觀點的智庫和學者。人工智能政策專家Kevin Frazier 和 Adam Thierer 曾在文章中呼籲,如果美國國會無法通過其自身的正選製人的人工智能治理規則,就應實行「學習期暫停」。
美國中右翼智庫R Street研究所曾公開評論:如果美國希望贏得這場「我們這個時代最重要的通用技術」的全球領先地位,那麼一個支持自由、支持創新的人工智能和先進計算國家政策框架至關重要。學習期暫停可以幫助確保這一結果,防止倉促出台的監管方案破壞美國的人工智能發展機遇。
然而這種論點很快遭到了科技監督項目 (Tech Oversight Project) 等科技安全組織的公開反對,他們指出這項規定「將削弱各州保護人民和兒童免受已證實的人工智能危害和詐騙的能力」。眾議員簡•夏科夫斯基表示,這項規定將允許科技公司「無視消費者隱私保護」並「分析和欺騙」用戶,尤其是在未來 10 年人工智能技術將取得哪些進步尚不可知的情況下。
美國的這一禁令及其所產生的迴響,將一個非此即彼的政策選擇問題顯化在我們面前:在人工智能所帶來的技術進步和地緣政治優勢,與所帶來的各種現實和可能的風險之間,我們究竟應該如何選擇?我們總在說的平衡二者的努力和政策,是否真的存在?換句話說,當我們多少傾向於其中一邊時,是否就代表事實上放棄了另外一邊?
三、黑箱困局與人性弱點:AI監管為何陷入「不可能任務」
我們正在進入一個智能機器的世界,它們在一系列領域的能力開始追平甚至超越人類。原本幾乎所有政策製定者、技術專家、社會科學家和商界領袖都普遍認同政府對生成式人工智能進行監管的必要性,只是對於監管形式鮮有共識。但現在,連「監管必要性」這種同盟,都產生了明顯的裂痕。
2023年,包括美國和中國在內的 28 個國家在布萊切利園舉行的人工智能安全峰會上籤署了一份聲明,肯定了「安全開發人工智能的必要性」,並警告「這些人工智能模型的最重要功能可能會造成嚴重甚至災難性的損害,無論是故意的還是無意的」。
但是在2025年的巴黎人工智能行動峰會上,美國選擇拒絕簽署聯合聲明,其副總統JD•萬斯旗幟鮮明地抨擊了歐盟的人工智能監管,而歐盟也開始陷入深深的自我懷疑之中——執行其《人工智能法案》,或許將為已落後中美的歐洲人工智能公司製造更大的合規負擔,是否還有必要?
在這個十字路口上,個別國家的政策選擇,將會在全球形成連鎖反應,或許會影響整個人類的命運。我們有必要反思,人工智能的監管為何會受到阻礙和批評?
在惡意濫用(即「故意」)的假設中,人工智能的強大能力當然會成為一股恐怖的力量。世界經濟論壇的《2024年全球風險報告》將人工智能驅動的虛假信息列為未來兩年全球面臨的最嚴重威脅。之所以認定其「最嚴重」,最主要是因為人工智能作為處理信息工具的易得性和低成本,它可以賦予一個技能平平、但心懷鬼胎的組織、甚至個體一種強大的傳播力量,形成輿論的導向、製造心理恐慌或憤怒,並進一步影響多數人做出錯誤的行動。
然而從根本上,在一個敵對的環境中,任何物件都可以成為攻擊對方的武器,任何中性甚至是好的東西,在「濫用」的前提下都可以成為壞事發生的成因。因此,針對「濫用」人工智能所產生的違法犯罪,監管是必須的,但這種監管有時候不必是針對人工智能製定新的法規,就像現有對殺人罪的規定無需因為發明了新式武器而進行修訂或另行製定新規。
這也就是為什麼,美國擬議的這項暫停令,聲稱並不適用於對基本權利進行保護的法律。
真正反對監管的理由,其實主要是針對「非濫用」(即「非故意」)場景,以及「濫用和非濫用」界限模糊的場景。反對監管的人通常批評製定新規在節奏上落後於技術發展,因此新規經常不合時宜、難以應對新情況,陷入繁文縟節和過度官僚主義,以至於最終會扼殺本應一路狂飆的技術進步。
但是,這種論點本身,恰恰是人工智能即使是在非濫用場景中應當被監管的原因。
美國賓夕法尼亞州立大學媒體特效教授S. Shyam Sundar曾提出一個觀點,他認為,人工智能必須被監管的根本原因並不在於技術失控,而是因為人類的弱點——想像力過於豐富。在他的實驗中,Sundar教授發現一種現象,當機器而非人類被認定為交互來源時,它會在用戶腦海中觸發一種思維捷徑,「這種捷徑指的是相信機器準確、客觀、公正、絕對可靠等等。它會矇蔽用戶的判斷力,導致用戶過度信任機器」。
比如,當車輛處於自動駕駛狀態時,駕駛員的警惕性普遍會降低;當機器展現出哪怕一絲人性,例如使用對話語言時,人們也會將計算機視為社會性生物,從而陷入某些病態的情感依賴中,甚至在現實中自殺。
媒體的鋪天蓋地的報導,已經助長了人們對人工智能能力和意識的非理性認知。如果政府向公眾信誓旦旦地宣佈,為了獲得人工智能的好處,我們應當讓它毫無阻礙地發展時,其本質也是上述「思維捷徑」的一種表現形式,而且更糟糕的是,政府此舉將在更大範圍內增加這種捷徑思維的範圍和影響,企圖讓所有人相信,人工智能帶給人類進步和幸福的必然性,而且沒有其他可能。
但是與這種「思維捷徑」相對應的現實是,人工智能的「黑匣」特性。與傳統工程系統不同,生成式人工智能的內部工作原理是不透明的,其行為既不是由設計者在代碼中有意表達的,(至少是目前)也無法通過檢查程序代碼及其大量調整參數來識別,因此其設計師也無法確定人工智能系統將如何運作。
舉例來說,當飛機發生故障時,我們可以分析機械的運行情況、追蹤故障源頭,據此糾正發生故障的組件或相互作用,以避免故障再次發生。然而人工智能的「黑匣」特性阻礙了這種追蹤故障源頭並糾正故障以避免其再次發生的方法。由於生成式人工智能由於代碼無法明確決定這些系統的行為,因此以規範、審計和測試為前提的監管方法皆無法確保安全性和可靠性。
將人類「思維捷徑」和生成式人工智能的「黑匣」特性放在一起,我們就會理解,為何監管人工智能如此重要——我們永遠不能也不應該絕對相信AI的正確和可靠性;同時提出一項具體的監管政策為何如此困難——只要我們的人工智能系統建立在「黑箱」數據驅動系統之上,那麼監管這些系統的制度就將仍然是近似的和不完整的。
四、監管的倫理使命
我們不得不承認,現行針對人工智能的法規和監管舉措中,無論從立法技術上還是從對人工智能深入理解的角度,沒有一部能令多數人滿意和稱道的。很多對歐盟的《人工智能法案》的批評意見非常中肯,而且作為第一部全面規範AI的法律也難逃頒布即過時的命運。我們此前也深入分析過美國加州未能通過的人工智能法案,其中確實存在許多不合理的部分。
避免過度的官僚主義固然重要,但這並不是無所作為的理由。
如果各國政府都選擇放棄應有的監管,不僅賦予大型科技公司其不應有的權力,而且是將人工智能置於一種「過於其所是」的社會地位。從這一角度出發,政府監管人工智能不僅具有法律意義,而且在功能上也承擔著倫理和評價的意義,這種努力雖不完美卻可以時刻提醒我們,人工智能遠非一種完備可靠的技術,在享受其好處的同時,我們必須時刻警惕它可能帶來的傷害。
本文來自微信公眾號「Internet Law Review」,作者:互聯網法律評論,36氪經授權發佈。