OpenAI怒斥Scaling撞牆論!o1已產生推理直覺潛力巨大

新智元報導  

編輯:Aeneas

【新智元導讀】Scaling Law撞牆了嗎?OpenAI高級研究副總裁Mark Chen正式駁斥了這一觀點。他表示,OpenAI已經有o系列和GPT系列兩個模型,來讓模型繼續保持Scaling。

最近,OpenAI高級研究副總裁Mark Chen在爐邊談話中,正式否認「Scaling Law撞牆論」。

他表示,並沒有看到Scaling Law撞牆,甚至OpenAI還有兩個範例——o系列和GPT系列,來保持這種Scaling。

用他的話說,「我們準確地掌握了需要解決的技術挑戰」。

o1不僅是能力提升,也是安全改進

從經濟角度看,OpenAI已經是最有價值的科技公司之一,因為他們為真實用戶提供了數十億美元的價值。

兩年前,AI最前沿的任務還是小學數學題;而今天,它們已經可以做最難的博士生題目。

因此,我們正處於這樣一個階段:AI模型能夠解決人類有史以來最困難的考試。

一旦這些模型解決了博士級別的問題,下一步,即使為世界提供實用性和價值。

當所有基準測試飽和之後,需要考慮的就是是否為最終用戶提供了價值。

雖然今天AI通過了基準測試,但它並沒有完全捕捉到AGI應該做的事。

好在,在過去一年里,OpenAI內部發生了最令人興奮的進展——o1誕生了。

這不僅是一種能力上的提升,從根本上來說也是一種安全改進。

為什麼這麼說?

想像我們試圖對一個模型進行越獄,舊的GPT系統必須立即做出回應,所以可能更容易被觸發。

但當我們有一個推理器時,模型卻會反思:這個問題是不是試圖讓我做一些與我要做的不一致的事?

此時,它獲得的額外思考和反思的時間,會讓它在很多安全問題上更穩健。

這也符合OpenAI研究者最初的預期。

當我們談到推理時,這是一個廣泛的概念,不僅僅用於數學或編程。

在編程中使用的推理方法,可能也適用於談判,或者玩一個很難的遊戲。

而說到基準測試,在安全性上也有同樣的挑戰。

安全性有點類似於這種對抗性攻擊框架。在這種情況下,攻擊是非常強烈的,因此我們在這方面還有很長的路要走。

如何到達五級AGI

AGI從一級到五級,關鍵推動因素是什麼呢?

OpenAI提出的框架中,定義了AGI的不同級別,具體來說,就是從基本推理者發展到更智能的系統,再到能在現實世界里採取行動的模型,最終到達更自主、完全自主的系統。

在這個過程中,穩健性和推理能力是關鍵。

今天我們還不能依賴很多智能體系統,原因是它們還不夠可靠。這就是OpenAI押注推理能力的原因。

OpenAI之所以大量投資,就是對此極有信心:推理能力將推動可靠性和穩健性。

所以,我們目前正處於哪一階段呢?

OpenAI研究者認為,目前我們正從第一階段向第二階段過渡,朝著更智能系統的方向發展。

雖然目前,許多智能體系統仍然需要人類監督,但它們已經變得越來越自主。模型可以自行原作,我們對於AI系統的信任也在逐漸增加。

合成數據的力量

合成數據,就是不由人類直接產生的數據,而是模型生成的數據。

有沒有什麼好的方法,來生成用於訓練模型的合成數據呢?

我們在數據稀缺或數據質量較低的數據集中,可以看到合成數據的力量。

比如,在訓練像DALL-E這樣的模型時,就利用了合成數據。

訓練圖像生成模型的一個核心問題是,當我們去看互聯網上帶標題的圖片時,標題和它所描述的圖片之間通常關聯性很低。

你可能會看到一張熱氣球的照片,而標題並不是描述氣球本身,而是「我度過最好的假期」之類的。

在OpenAI研究者看來,在這種情況下,就可以真正利用合成數據,訓練一個能為圖片生成高保真標題的模型。

然後,就可以為整個數據集重新生成捕獲了,OpenAI已經證明,這種方法非常有效。

數據集中某方面較差的其他領域,也可以採用這個辦法。

Scaling Law沒有撞牆

最近很火熱的一個觀點是,Scaling Law已經撞牆了,許多大型基礎實驗室都遇到了預訓練的瓶頸。

果真如此嗎?

Mark Chen的觀點是,雖然的確在預訓練方面遇到一些瓶頸,但OpenAI內部的觀點是,已經有了兩種非常活躍的範式,讓人生成無限希望。

他們探索了一系列模型的測試時Scaling範式,發現它們真的在迅速發展!

在推理模型的Scaling上,也沒有同樣的障礙。

其實,從早期入職OpenAI後,研究者就一直遇到多個技術挑戰。現在這些挑戰已經非常具體,在Mark Chen看來,沒有什麼是完全無法應對的。

在OpenAI內部,大家經常說推理範式已經達到了一定的成熟度。有些產品已經有了與市場的契合點,雖然進展仍然非常緩慢。

過去幾週內,最令人驚訝的使用場景,莫過於和o1進行頭腦風暴了。

o1和GPT-4的對比,讓人感受到了全新的深度:人類彷彿終於有了一個真正能互動的陪練夥伴,而非僅僅對自己的想法進行評論。

它彷彿一個真正的實體,非常有參與感。

o1的推理直覺,是如何產生的

OpenAI的研究者,是如何想到o1中的推理直覺的呢?

這是一個集體努力的結果,不過他們也進行了很長時間的工作,進行了一些探索性的重點嘗試。

在兩年前,他們就覺得,AI雖然非常聰明,但在某些方面是不足的。不知為什麼,總是感覺不太像AGI。

當時他們假設,原因在於,這是因為AI被要求立即做出回應。

就算我們要求一個人類立即做出回應,ta也未必能給出最好的答案。

一個人可能會說,我需要思考一會,或者我需要做一些研究,明天再答覆你。

就在這裏,OpenAI研究者發現了亮點!

其實這裏缺少的,是連接系統一和系統二之間的鴻溝。

快速思考有,知識也有,但卻沒有慢速思考,核心假設就在這裏。

研究者做了許多不同嘗試,來解決這個挑戰。

一群非常具有探索精神的研究者,獲得了一些生命跡象。

圍繞這些跡象,他們組建了研究團隊,擴大的項目規模,投入了大量的數據生成工作。

從快速進展中獲取預測結果,是整個案例中最難的部分。

開始時,就像登月計劃一樣,會遭遇很多失敗。

有三四個月,他們完全沒取得多少有意義的進展。

好在最終,總會有人獲得重大突破。這也就給了他們足夠的動力來投入更多資源,往前推動一點。

從o1推出幾個月後,OpenAI和許多外部合作夥伴進行了交流。

最酷的一件事就是,他們發現它比使用微調方法要好得多——它已經不太容易被問題難倒了。

很多應用已經超出了研究者之前關注的數學和科學領域。當看到AI的推理能力能泛化到這些領域,真的令人驚喜。

比如在醫學領域,模型在醫學症狀的判斷上,涉及形成假設、驗證,隨後再形成新的假設。

即使在研究者沒有特別關注的領域,模型也進展得很快,比如醫學、法律推理。

而他們也確信,在未來還會有其他還未測試過的領域,AI會有重大進展。

OpenAI仍然注重安全

Mark Chen肯定地說,目前OpenAI仍然像早期那樣,致力於研究和安全。

為此,管理著一個非常龐大的研究項目組合。並且一直在思考著應該分配多少資源和力量來進行探索性研究,而不是短期的即時項目。

不過,在這方面,OpenAI和很多大型基礎實驗室不同。

這些大實驗室有很多優秀的研究者,可以沒有方向地進行研究,自由地去做任何事。

但對OpenAI來說,他們比這些實驗室的規模都要小,因此需要更有方向性。

他們選擇了一些非常有信心的探索性項目,在這些領域內,給了研究者很大的自由度。

也就是說,OpenAI並不會進行毫無目標的探索,而且充分利用了自己規模小的優勢。

現在是AI創業的好時機

OpenAI的研究者也認為,現在是基於AI創立初創公司的好時機。

基礎模型的玩家專注的是通用性。

但像OpenAI這樣的公司,不可能涉足每一個垂直領域。

在特定領域定製一個模型,有很多空間和可能性。

現在,我們已經可以看到一個豐富的初創企業生態系統,這些企業在OpenAI的基礎上構建了各種類型的應用。

通常情況下,初創企業之所以能夠成功,是因為他們知道並堅信某個秘密,而市場上的其他人並不知道這個秘密。

在AI領域,實際上就是在一個不斷變化的技術棧上進行構建,我們無法預測下一個模型會何時出現。

表現最好的初創企業,就是那些有直覺,在剛剛開發發揮作用的邊緣技術上進行構建的企業,它們有一種生命力。

當我們擁有AGI,就是相當強大的形式,真正釋放了全部潛力。

想像一個人在一週內,就能創建一個帶來巨大價值的大型初創公司。

一個人在幾天內產生巨大影響的想法,已經不僅限於商業領域。

這種懷舊的感覺就像17世紀,科學家們在探討物理學一樣。

我們能否回到那種氛圍,一個人能做出醫學、物理學或計算機科學領域的重大發現?

而這些,都是因為AI。

參考資料:

https://x.com/tsarnick/status/1860458274195386658