OpenAI怒斥Scaling撞牆論,o1已產生推理直覺潛力巨大

【導讀】Scaling Law撞牆了嗎?OpenAI高級研究副總裁Mark Chen正式駁斥了這一觀點。他表示,OpenAI已經有o系列和GPT系列兩個模型,來讓模型繼續保持Scaling。

最近,OpenAI高級研究副總裁Mark Chen在爐邊談話中,正式否認「Scaling Law撞牆論」。 

他表示,並沒有看到Scaling Law撞牆,甚至OpenAI還有兩個範例——o系列和GPT系列,來保持這種Scaling。 

用他的話說,「我們準確地掌握了需要解決的技術挑戰」。 

o1不僅是能力提升,也是安全改進

從經濟角度看,OpenAI已經是最有價值的科技公司之一,因為他們為真實用戶提供了數十億美元的價值。 

兩年前,AI最前沿的任務還是小學數學題;而今天,它們已經可以做最難的博士生題目。 

因此,我們正處於這樣一個階段:AI模型能夠解決人類有史以來最困難的考試。 

一旦這些模型解決了博士級別的問題,下一步,即使為世界提供實用性和價值。 

當所有基準測試飽和之後,需要考慮的就是是否為最終用戶提供了價值。 

雖然今天AI通過了基準測試,但它並沒有完全捕捉到AGI應該做的事。 

好在,在過去一年里,OpenAI內部發生了最令人興奮的進展——o1誕生了。 

這不僅是一種能力上的提升,從根本上來說也是一種安全改進。 

為什麼這麼說? 

想像我們試圖對一個模型進行越獄,舊的GPT系統必須立即做出回應,所以可能更容易被觸發。 

但當我們有一個推理器時,模型卻會反思:這個問題是不是試圖讓我做一些與我要做的不一致的事? 

此時,它獲得的額外思考和反思的時間,會讓它在很多安全問題上更穩健。 

這也符合OpenAI研究者最初的預期。 

當我們談到推理時,這是一個廣泛的概念,不僅僅用於數學或編程。 

在編程中使用的推理方法,可能也適用於談判,或者玩一個很難的遊戲。 

而說到基準測試,在安全性上也有同樣的挑戰。 

安全性有點類似於這種對抗性攻擊框架。在這種情況下,攻擊是非常強烈的,因此我們在這方面還有很長的路要走。 

如何到達五級AGI

AGI從一級到五級,關鍵推動因素是什麼呢? 

OpenAI提出的框架中,定義了AGI的不同級別,具體來說,就是從基本推理者發展到更智能的系統,再到能在現實世界里採取行動的模型,最終到達更自主、完全自主的系統。 

在這個過程中,穩健性和推理能力是關鍵。 

今天我們還不能依賴很多智能體系統,原因是它們還不夠可靠。這就是OpenAI押注推理能力的原因。 

OpenAI之所以大量投資,就是對此極有信心:推理能力將推動可靠性和穩健性。 

所以,我們目前正處於哪一階段呢? 

OpenAI研究者認為,目前我們正從第一階段向第二階段過渡,朝著更智能系統的方向發展。 

雖然目前,許多智能體系統仍然需要人類監督,但它們已經變得越來越自主。模型可以自行原作,我們對於AI系統的信任也在逐漸增加。 

合成數據的力量

合成數據,就是不由人類直接產生的數據,而是模型生成的數據。 

有沒有什麼好的方法,來生成用於訓練模型的合成數據呢? 

我們在數據稀缺或數據質量較低的數據集中,可以看到合成數據的力量。 

比如,在訓練像DALL-E這樣的模型時,就利用了合成數據。 

訓練圖像生成模型的一個核心問題是,當我們去看互聯網上帶標題的圖片時,標題和它所描述的圖片之間通常關聯性很低。 

你可能會看到一張熱氣球的照片,而標題並不是描述氣球本身,而是「我度過最好的假期」之類的。 

在OpenAI研究者看來,在這種情況下,就可以真正利用合成數據,訓練一個能為圖片生成高保真標題的模型。 

然後,就可以為整個數據集重新生成捕獲了,OpenAI已經證明,這種方法非常有效。 

數據集中某方面較差的其他領域,也可以採用這個辦法。 

Scaling Law沒有撞牆

最近很火熱的一個觀點是,Scaling Law已經撞牆了,許多大型基礎實驗室都遇到了預訓練的瓶頸。 

果真如此嗎? 

Mark Chen的觀點是,雖然的確在預訓練方面遇到一些瓶頸,但OpenAI內部的觀點是,已經有了兩種非常活躍的範式,讓人生成無限希望。 

他們探索了一系列模型的測試時Scaling範式,發現它們真的在迅速發展! 

在推理模型的Scaling上,也沒有同樣的障礙。 

其實,從早期入職OpenAI後,研究者就一直遇到多個技術挑戰。現在這些挑戰已經非常具體,在Mark Chen看來,沒有什麼是完全無法應對的。 

在OpenAI內部,大家經常說推理範式已經達到了一定的成熟度。有些產品已經有了與市場的契合點,雖然進展仍然非常緩慢。 

過去幾週內,最令人驚訝的使用場景,莫過於和o1進行頭腦風暴了。 

o1和GPT-4的對比,讓人感受到了全新的深度:人類彷彿終於有了一個真正能互動的陪練夥伴,而非僅僅對自己的想法進行評論。 

它彷彿一個真正的實體,非常有參與感。 

o1的推理直覺,是如何產生的

OpenAI的研究者,是如何想到o1中的推理直覺的呢? 

這是一個集體努力的結果,不過他們也進行了很長時間的工作,進行了一些探索性的重點嘗試。 

在兩年前,他們就覺得,AI雖然非常聰明,但在某些方面是不足的。不知為什麼,總是感覺不太像AGI。 

當時他們假設,原因在於,這是因為AI被要求立即做出回應。 

就算我們要求一個人類立即做出回應,ta也未必能給出最好的答案。 

一個人可能會說,我需要思考一會,或者我需要做一些研究,明天再答覆你。 

就在這裏,OpenAI研究者發現了亮點! 

其實這裏缺少的,是連接系統一和系統二之間的鴻溝。 

快速思考有,知識也有,但卻沒有慢速思考,核心假設就在這裏。 

研究者做了許多不同嘗試,來解決這個挑戰。 

一群非常具有探索精神的研究者,獲得了一些生命跡象。 

圍繞這些跡象,他們組建了研究團隊,擴大的項目規模,投入了大量的數據生成工作。 

從快速進展中獲取預測結果,是整個案例中最難的部分。 

開始時,就像登月計劃一樣,會遭遇很多失敗。 

有三四個月,他們完全沒取得多少有意義的進展。 

好在最終,總會有人獲得重大突破。這也就給了他們足夠的動力來投入更多資源,往前推動一點。 

從o1推出幾個月後,OpenAI和許多外部合作夥伴進行了交流。 

最酷的一件事就是,他們發現它比使用微調方法要好得多——它已經不太容易被問題難倒了。 

很多應用已經超出了研究者之前關注的數學和科學領域。當看到AI的推理能力能泛化到這些領域,真的令人驚喜。 

比如在醫學領域,模型在醫學症狀的判斷上,涉及形成假設、驗證,隨後再形成新的假設。 

即使在研究者沒有特別關注的領域,模型也進展得很快,比如醫學、法律推理。 

而他們也確信,在未來還會有其他還未測試過的領域,AI會有重大進展。 

OpenAI仍然注重安全

Mark Chen肯定地說,目前OpenAI仍然像早期那樣,致力於研究和安全。 

為此, 他 管理著一個非常龐大的研究項目組合。並且 一直在思考著應該分配多少資源和力量來進行探索性研究,而不是短期的即時項目。 

不過,在這方面,OpenAI和很多大型基礎實驗室不同。 

這些大實驗室有很多優秀的研究者,可以沒有方向地進行研究,自由地去做任何事。 

但對OpenAI來說,他們比這些實驗室的規模都要小,因此需要更有方向性。 

他們選擇了一些非常有信心的探索性項目,在這些領域內,給了研究者很大的自由度。 

也就是說,OpenAI並不會進行毫無目標的探索,而且充分利用了自己規模小的優勢。 

現在是AI創業的好時機

OpenAI的研究者也認為,現在是基於AI創立初創公司的好時機。 

基礎模型的玩家專注的是通用性。 

但像OpenAI這樣的公司,不可能涉足每一個垂直領域。 

在特定領域定製一個模型,有很多空間和可能性。 

現在,我們已經可以看到一個豐富的初創企業生態系統,這些企業在OpenAI的基礎上構建了各種類型的應用。 

通常情況下,初創企業之所以能夠成功,是因為他們知道並堅信某個秘密,而市場上的其他人並不知道這個秘密。 

在AI領域,實際上就是在一個不斷變化的技術棧上進行構建,我們無法預測下一個模型會何時出現。 

表現最好的初創企業,就是那些有直覺,在剛剛開發發揮作用的邊緣技術上進行構建的企業,它們有一種生命力。 

當我們擁有AGI,就是相當強大的形式,真正釋放了全部潛力。 

想像一個人在一週內,就能創建一個帶來巨大價值的大型初創公司。 

一個人在幾天內產生巨大影響的想法,已經不僅限於商業領域。 

這種懷舊的感覺就像17世紀,科學家們在探討物理學一樣。 

我們能否回到那種氛圍,一個人能做出醫學、物理學或計算機科學領域的重大發現? 

而這些,都是因為AI。 

參考資料: 

https://x.com/tsarnick/status/1860458274195386658 

本文來自微信公眾號「新智元」,編輯:Aeneas ,36氪經授權發佈。