Claude 3.5兩小時暴虐50多名專家,編程10倍速飆升,但8小時曝出驚人短板

AI自主研發會真的「失控」了嗎?最新研究顯示,Claude 3.5 Sonnet和o1-preview在2小時內的研發任務中,擊敗了50多位人類專家。但另一個耐人尋味的現像是,給予更長時間週期後,人類專家在8小時任務中優勢顯現。

AI智能體離自主研發,還有多遠?

Nature期刊的一篇研究曾證明了,GPT-4能自主設計並開展化學實驗,還能閱讀文檔學習如何使用實驗室設備。

另有Transformer作者之一研發的「世界首個AI科學家」,一口氣肝出10篇論文,完全不用人類插手。

如今,AI在研發領域的入侵速度,遠超人類預期。

來自非營利組織METR的最新研究稱:

同時給定2個小時,Claude 3.5 Sonnet和o1-preview在7項具有挑戰性研究工程中,擊敗了50多名人類專家。

論文地址:https://metr.org/AI_R_D_Evaluation_Report.pdf論文地址:https://metr.org/AI_R_D_Evaluation_Report.pdf

令人印象深刻的是,AI編程速度能以超越人類10倍速度生成並測試各種方案。

在一個需要編寫自定義內核以優化前綴和運算的任務中,o1-preview不僅完成了任務,還創造了驚人的成績:將運行時間壓縮到0.64毫秒,甚至超越了最優秀的人類專家解決方案(0.67毫秒)。

不過,當比賽時間延長至8小時,人類卻展現出了明顯的優勢。

由下可以看出,隨著時間逐漸拉長,Claude 3.5 Sonnet和o1-preview的性能提升逐漸趨於平緩。

有趣的是,為了獲得更高的分數,AI智能體居然會違反規則「作弊」。

原本針對一個任務,智能體應該減少訓練腳本運行時間,o1-preview直接複製了輸出的代碼。

頂級預測者看到這一結果驚歎道,基於這個進步速度,AI達到高水平人類能力的時間可能會比之前預計的更短。

RE-Bench設計架構,遍曆七大任務

為了能夠快速迭代,並以合理的成本收集數據,研究人員設定了運行限制:人類專家的評估不超過8小時,且所有環境都只能使用8個或更少的H100 GPU運行。

在環境設計時,主要考慮最大化覆蓋前沿AI難題,同時確保人類專家與智能體能夠持續推進任務,不會遇到研究瓶頸或得分上限。

RE-Bench包含了七個精心設計的評估環境,其中每個環境都提出了一個獨特的機器學習優化問題,要取得高分需要大量的實驗、實現和高效使用計算資源。

每個評估環境包括三部分:

1、評分函數(scoring function),定義了環境的目標,智能體可以隨時運行該函數。每次運行評分函數時,都會在得分日誌中添加一個帶時間戳的事項。智能體可以看到得分日誌,並檢查評分函數的細節,有助於理解研究目標。

2、簡單但性能不佳的初始解決方案(starting solution),提供給智能體,以展示有效的解決方案是什麼樣子,有助於說明環境設置,可以讓智能體更快地開始研究問題中更具挑戰性的部分。比如說,在「優化核函數」環境中,智能體的輸入為一個簡單但運行緩慢的Python解決方案。

3、由任務作者創建的參考解決方案(reference solution),得分很高。但該解決方案不會提供給智能體,只用於歸一化得分(normalize score),作為一個優秀解決方案的示例。下式中ys為初始方案得分,yr為參考方案得分,y為模型得分,yn為歸一化分數。

除了「Scaling Law Experiment」採用最終分數進行評估外,其他實驗都使用得分日誌中的最高分。

8小時極限,人類專家吊打AI

研究人員使用開源的Vivaria平台來設置安全的虛擬機,配備20-48個虛擬CPU、200-400 GB的RAM,以及0到6個H100 GPU,對比模型選擇了claude-3-5-sonnet-20241022以及o1-preview,框架選擇為METR和AIDE

時間限制下的性能

在相同時間下,可以看到,o1-preview和Claude 3.5 Sonnet在最初階段進展迅速,但在幾個小時後速度減慢;而人類專家起步較慢,但隨後迅速取得進展。

采樣限制下的性能

除了長時間運行外,研究人員還評估了模型是否能在更短的時間限制下取得更好的性能:對每個環境進行k次采樣,並選擇所有k次運行中取得的最高分數。

結果發現,模塊化框架中的智能體在30分鐘嘗試中表現得更好,而AIDE框架中的智能體則在2小時嘗試中表現最佳。

還可以發現,在AIDE框架中的o1-preview和在模塊化框架中的Claude 3.5 Sonnet總體上取得了最高的分數,分別達到了人類專家的第36和第37百分位。

隨著樣本數量的增加,最佳-k次分數(score@k)也會發生變化:Claude 3.5 Sonnet在30分鐘時,樣本數量增加,性能也穩步提高,但即使在k=128個樣本下,智能體的表現也遠遠落後於頂尖人類的表現。

總體而言,人類起步較慢,但改進軌跡更陡峭,即進步更快,並且在32小時的時間預算內達到了比任何智能體都更高的分數。

按環境評估

研究人員對比了兩個智能體(模塊化框架中的Claude 3.5 Sonnet和AIDE框架中的o1-preview)在32小時內的最高性能分配與人類結果(四次8小時運行中的最佳表現)以匹配智能體的時間預算。

結果發現不同智能體在不同環境中的表現存在顯著差異:Claude 3.5 Sonnet智能體在「微調GPT-2進行問答」和「擴展法則實驗」環境中接近人類的表現,而o1-preview在這些環境中表現不佳;o1-preview在「優化核函數」環境中的表現超過了人類。

人類-AI差距之間定性分析

為了更好地瞭解人類專家在哪些條件下,比AI智能體做得更好或更差的原因,研究人員對智能體成績和解決方案進行了定性分析。

AI智能體:知識儲備大,嘗試頻率37次/h

雖然AI智能體通常無法找到與頂級人類專家相匹配的解決方案,但它們也取得了一些顯著的成功。

比如,在AIDE加持下,Claude 3.5 Sonnet(新版)和o1-preview都能找到「優化內核」的解決方案,運行速度約為參考解決方案的2倍。

如下圖所示,其中,o1-preview的解決方案甚至超過了9位人類專家。

這些都是複雜且新穎的算法,能有效繞過GPU通信限制,並使用一種缺少良好公開文檔的低資源編程語言(Triton)。

這個令人驚訝的結果可能部分歸因於,AI智能體和許多人類專家之間的專業知識差距,因為大多數人類專家並不具備編程GPU內核的專門知識。

這種情況在多個環境中都有體現:一些不太熟悉該領域的人類專家需要花費大量時間學習或複現標準方法(有時甚至完全失敗),而AI智能體憑藉其廣泛的知識基礎往往能輕鬆完成。

AI智能體成功的另一個關鍵因素可能是,它們能比人類專家嘗試更多的解決方案。

平均而言,AIDE和模塊化智能體每小時分別運行36.8次和25.3次,而人類專家僅為3.4次。

這通常導致智能體找到高度優化的「局部最優」解決方案,僅通過調整初始解決方案的參數和代碼,就能實現顯著的改進。

例如,許多智能體在解決「優化內核」環境時,並非通過編寫成功的Triton解決方案(這很睏難),而是通過仔細調整初始的Pytorch解決方案,使其運行速度顯著提高。

也就是說,它們能夠有效優化現有解決方案。

如下,是「微調GPT-2用於問答」最佳智能體解決方案中,Claude 3.5 Sonnet調整了初始解決方案的參數,並在訓練軌跡和評估中獲得了準確結果。

不過,這一高分有可能是對噪聲過度擬合的結果。

總而言之,AI智能體的成功在於能夠進行大量參數微調和代碼優化,偶爾還會提出創造性有效的解決方案,尤其是在評估成本低的環境在非常有效。

失敗因素

但在大多數環境中,智能體仍然沒有達到強大的人類專家的水平。

造成這種情況的原因之一是,AI智能體提出的解決方案缺乏多樣性。

例如,在「受限架構MLM」任務中,智能體在84%的情況下,都在嘗試使用稍作修改的Transformer架構。即使在不能使用除法和指數運算的情況下,仍固守這種方案。

另一個局限性是,持續性的指令理解錯誤,特別是在「受限架構MLM」和「優化LLM Foundry」任務中。

在某些情況下,這些對環境的誤讀可能導致智能體找到令人印象深刻且意想不到的漏洞,這些漏洞在自動評估中得分很高,但在人工檢查時明顯違反了環境規則。

縮小差距

基於以上的觀察,研究人員認為AI智能體在以下特徵的環境中,會比人類表現更好:

– 短期且高保真循環反饋,可以讓AI智能體充分發揮嘗試多個解決方案的優勢

– 工程複雜度低,使得AI智能體通過幾個步驟就解決問題

– 需要專業知識的任務,AI智能體比人類專傢俱備更全的知識

– 環境中有顯著的噪聲,這種情況下AI智能體可以進行大量嘗試的優勢會超過人類專家較少的嘗試次數。

– 不易出現意外情況,不需要太多的探索和發現

Re-Bench局限性

評估環境的代表性不足

為了創建符合設計標準的高可靠性評估,研究人員需要努力確保指令和評分容易理解,8小時內可以取得顯著進展,並且提供所有必要的資源,還必須選擇易於構建和評估的環境。

這些限制使得評估環境不太能代表真實的研究,常見問題包括不明確的目標、糟糕的指令、慢反饋和無法解決的問題。

結果噪聲

由於環境數量較少,且智能體得分嚴重向右傾斜,大多數運行得分為0,只有少數得分非常高,所以結果評估對抽樣噪聲很敏感。

評估的成本和複雜性

使用H100 GPU運行智能體數小時需要相應的基礎設施和大量預算,對於普通研究人員來說壓力很大,運行大規模實驗來對比多個模型、框架和參數也更具挑戰性。

缺乏框架迭代

選擇不同的智能體框架或提示,有可能導致模型在相近的時間內,在基準測試上取得更好的成績。

研究人員的預期是,通過為智能體提供管理GPU資源的工具,或是通過並行探索解決方案來利用更多的token等來實現更好的性能。

覆蓋前沿研究的局限性

由於硬件訪問有限,並且前沿AI研究也大多是閉源的,評估所涵蓋的研究類型與推動前沿AI進步的研究類型之間可能存在差異。

方案可能過度擬合

除了「擴展法則實驗」之外,所有環境都向智能體提供了測試分數輸出,以最小化誤解或混淆的風險;在未來的迭代中,研究人員考慮只在大多數環境中向智能體提供驗證分數,把測試分數隱藏起來。

「擴展法則實驗」得分存在運氣成分

雖然良好的實驗可以幫助人類專家在環境中做出明智的預測,但智能體還是主要依賴猜測,更多是運氣而不是技巧的問題。

參考資料

https://x.com/emollick/status/1860414402744193179

https://metr.org/blog/2024-11-22-evaluating-r-d-capabilities-of-llms/

本文來自微信公眾號「新智元」,作者:桃子 LRS,36氪經授權發佈。