應當興奮還是顫抖?OpenAI的最新模型o3 已接近人類智慧,安全性突破也對監管政策提出更大挑戰
最近,OpenAI 發佈了 o3 模型,此舉顛覆了AI 開發已陷入停滯的說法。o3 實現了許多人認為不可能實現的目標:在真正的智能測試ARC-AGI中獲得了 87.5% 的分數,而人類表現的基準為 85%(ARC-AGI 基準專門用於測試通用智能的本質:識別新情況下的模式並將知識應用於陌生挑戰的能力)。
這不僅僅是一個不斷增長的 AI 里程碑。o3 卻從根本上打破了在解決某些數學問題(包括人類認為非常簡單的問題)等任務上的障礙,展示了即時合成新程序和新方法的能力——這是邁向通用人工智能 (AGI) 的關鍵墊腳石。
這一突破的影響深遠且緊迫。我們見證的不僅僅是人工智能能力的根本性轉變。問題不再是我們能否實現 AGI,而是何時實現。更重要的是,我們將如何應對它的到來,這一現實要求我們不得不立即重新調整政策的討論,並將監管精力集中在確保其發展造福全人類上。
一、o3 的突破:更強的推理能力
在 OpenAI 的 o3 突破之前,人們普遍預測人工智能的發展將放緩。
一年多前,《哈佛商業評論》提出疑問:「生成式人工智能是否已達到頂峰?」
2024年夏天,《Fast Company》宣佈:「第一波人工智能創新已經結束。」
上個月,Axios 的一篇文章提出:「人工智能‘越大越好’的信念開始減弱。」
o3模型開創性能力背後,是一種新穎的強化學習方法,即o3 在響應用戶的提問之前,會花費更長時間地「思考」其反應。對推理的額外強調,創建了一個更有條理的模型。當 o3 處理提問時,它不僅會考慮相關提示,還會在得出響應時詳細說明對提問的分析。這種策略可以提高準確性並減少幻覺的出現。
此外,o3展示出更強的處理新任務的能力,使得該模型在複雜領域更更具智能。實證改進是顯著的:早在 2020 年,ChatGPT-3 在 ARC 基準測試中的得分為 0%;ChatGPT-4o 攀升至 5%;o3 在有限的計算水平下獲得了 75.7%,在更高的計算量下獲得了 87.5%。
二、o3的安全圍欄:自我監督和校準
OpenAI 還引入了一種被稱為「審慎校準」提高模型安全性的新方法,包括「將人類編寫且可解釋的安全規範文本,並訓練他們在回答之前明確推理這些規範。」OpenAI 希望這種新方法將有助於確保 o3 及後續模型更嚴格地遵守公司的安全規範。
隨著各個實驗室堅持推出功能更強大的模型,最強大的人工智能系統是否能夠保證安全的問題將在未來幾個月變得至關重要。
OpenAI 尚未完成對 o3 的安全測試。即使是 OpenAI 本月初發佈的上一個模型 o1,也在高風險領域表現出了顯著增強的能力,而更先進的 o3 可能會進一步增強這些能力。
同樣,前沿實驗室 12 月發佈的兩項研究表明,隨著人工智能系統的進步,它們變得更有能力和更願意從戰略上破壞用戶的目標。這兩項研究都表明,如果前沿系統被賦予既定目標,它們可能會通過關閉或用更新系統的方式抵製這些目標被改變。為避免目標受阻,前沿系統採用的一些策略包括:「模型會從戰略上在響應中引入微妙的錯誤,試圖禁用其監督機制,甚至將他們認為是模型權重的內容泄露到外部服務器。」
我們還不知道03在協助製造生物武器、實施網絡攻擊、合成化學武器、說服人類或任何其他軍民兩用能力方面做得有多好。但是,如果o3在這些領域代表著與其他領域一樣巨大的進步,我們就有理由感到擔憂。
三、不要低估下一波人工智能浪潮:新縮放定律
o3的表現代表了另一個更重要的東西:它展示了OpenAI在其o系列模型中發現的新縮放定律的力量。
以前人工智能的進步主要來自對現有架構的擴展:更大的模型、更多的數據和更多的計算。雖然令人印象深刻,但這種方法已經呈現出「收益遞減」的趨勢,特別是在需要真正的智能而不是模式匹配的任務上。儘管GPT-4在訓練和開發上花費的資源遠遠大於GPT-3,但在ARC-AGI基準上取得的進展與其耗費的資源相比卻並不匹配。
o 系列完全改變了這種計算方式。OpenAI 成功實施了一種全新的方法:使用強化學習通過自然語言搜索指導程序合成。簡而言之,以前的模型只能遵循他們以前見過的模式,但新模型可以主動搜索並構建新問題的新解決方案。這不僅僅是一個更好的引擎,它是一輛全新的汽車,而o3的性能顯示了這輛汽車的強大程度。
更多的突破即將出現。硬件公司正在開發專門的人工智能芯片,這些芯片可以使當今昂貴的計算成本降低幾個數量級,速度更快。研究人員正在探索將神經網絡與符號推理相結合的混合方法。機器人技術和具身人工智能的進步可以為模型從物理交互中學習提供新方法。這些新方法的每一個都代表著一種潛在的新縮放定律——一種指數級改進的新途徑。
這些進步的疊加還帶來了額外的加速:硬件突破使得訓練大型模型的成本更低,從而使得測試新的架構創新成為可能,這反過來又為構建更好的硬件提供了方法。這種級聯效應產生了加速進步的反饋回路。
o3 的巨大飛躍是一個重要的提醒——突破性能力可能突然出現。
人工智能發展中最一致的模式之一不是技術性的,而是心理性的。專家和觀察家一次又一次低估了進步的速度和突破的規模。這種持續的低估源於心理學家所說的「指數增長偏差」:我們很難理解指數級的進步。人類的直覺是線性的,但技術進步,尤其是人工智能,遵循指數曲線。每一次進步都建立在之前所有進步的基礎上,形成加速反饋循環。
o3 再次打破這種預期。就在 o3 發佈前一天,在 ARC-AGI 基準上實現接近人類表現的想法似乎還只是科幻小說。
不過,即便是現在,目前對 AGI 時間表的預測可能仍然過於保守。多種縮放定律的融合、硬件的快速改進以及意外突破的可能性都表明,進展可能比任何人預期的都要快得多。問題不在於我們是否將在未來幾年看到類似的巨大飛躍,而在於有多少,以及在哪些方向上。
四、AI監管政策也應當尋求突破
o3 的突破對AGI提出了更為實際挑戰——自主學習、快速能力擴展和可能失去人類控制,這些情況在某些場景下已經出現,而在其他場景下則非常接近。o3 級人工智能能力的出現要求立即採取監管行動。僅靠人工智能自身及其公司的自我管理是遠遠不夠的。監管行動應從三個關鍵方面進行:
首先,主動治理框架可以在跨越關鍵閾值之前而非之後指導人工智能發展。這些框架必須在創新與安全之間取得平衡,同時保持足夠的靈活性以適應快速變化的能力。考慮到進步的速度和規模,僅僅對每個新突破做出反應已不再足夠。
其次,監管行動必須面臨前所未有的全球協調挑戰。AGI 的開發在多個國家和公司同時進行,具有不同的優先事項和價值觀。如果沒有協調一致的監督,我們就會面臨安全標準競爭的風險,或者相反,監管分散會阻礙有益的進步。沒有一個國家能夠有效地管理一項將在全球範圍內開發和部署的技術。
第三,立法機關和相關的行政監管機構,必須加快為 AGI 做好經濟和社會準備。AGI 級系統的到來將改變勞動力市場,重塑經濟權力結構,並挑戰基本的社會制度。立法者和監管機構需要製定具體的計劃來管理這一轉變:新的教育方法,為人工智能驅動的經濟做好準備,社會安全網考慮到潛在的工作流失,以及確保人工智能進步的好處得到廣泛分享而不是集中在少數強大參與者手中的機制。建立這些框架的時間有限且越來越窄——一旦這些技術得到廣泛部署,實施有效治理將變得更加困難。
這些監管努力不需要、也不應該阻礙負責任的人工智能研究和開發。上述每一項行動的背後都是對收集信息、提高透明度和確保社會廣泛認同的關注。如果做得正確,這些監管努力實際上可以加速對社會有益的人工智能的創造和傳播。
作者:Kevin Frazier, Alan Z. Rozenshtein, Peter N. Salib
Kevin Frazier :聖湯馬斯大學法學院的助理教授,也是德克薩斯大學奧史甸分校憲法研究項目的高級研究員。
Alan Z. Rozenshtein:明尼蘇達大學法學院法學副教授、 Lawfare研究主任兼高級編輯、布魯金斯學會非常駐高級研究員以及外交關係委員會定期成員。此前,他曾擔任美國司法部國家安全司法律與政策辦公室的律師顧問以及馬里蘭州檢察官辦公室的特別助理美國檢察官。
Peter N. Salib :曉士頓大學法學院的法學助理教授,也是霍比公共事務學院的附屬教員。他思考和寫作的領域涉及憲法、經濟學和人工智能。
編譯:《互聯網法律評論》
本文編譯自 Lawfare:https://www.lawfaremedia.org/article/openai’s-latest-model-shows-agi-is-inevitable.-now-what
【免責聲明】本文撰寫所需的信息採集自合法公開的渠道,我們無法對信息的真實性、完整性和準確性提供任何形式的保證。本文僅為分享、交流信息之目的,不構成對任何企業、組織和個人的決策依據。
本文來自微信公眾號「Internet Law Review」,作者:Kevin Frazier 等,36氪經授權發佈。