GPT-4o mini登頂大模型競技場,奧特曼:兩個月內微調免費

基爾西 發自 凹非寺

量子位 | 公眾號 QbitAI

剛剛,GPT-4o mini版迎來「高光時刻」——

登頂了lmsys大模型競技場,和滿血版並列第一,還把Claude 3.5甩在了身後。

不同於一般的數據集測評,大模型競技場是用戶自己出題、用腳投票的結果,無法通過「刷題」來走捷徑,因此更為真實。

這個成績一出,連CEO奧特曼都激動起來了:

面對評估成績,我們本來是儘量矜持的,但是看到GPT-4o mini表現和滿血版一樣,價格卻只有1/20,內心還是很激動。

網民看到之後表示OK,但更關心的還是GPT-4o發佈會上演示的「Her」到底什麼時候上線。

與此同時,OpenAI也送來了另一個好消息,將為開發者送出福利——

GPT-4o mini的微調將逐步開放,目前已開放給tier 4和tier 5用戶,然後會陸續擴展範圍。

而且從即日起到9月23號,每天都能免費使用2百萬的訓練token

mini與滿血版平起平坐

經過80多款模型上百萬輪的1v1比拚,GPT-4o mini在lmsys榜單上的成績與滿血版只差7分。

按照lmsys榜單的排法,這7分的差距沒有影響名次,把兩個型號算作了並列第一。

緊隨其後的是Claude 3.5和Gemini家族,還有GPT-4的另外兩個版本。

如果我們查看GPT-4o mini的原始數據,會發現它0.6的平均勝率僅次於滿血版本。

單獨看兩者比拚的結果,同樣是打得不相上下。

之所以lmsys的成績受到關注,在於它擁有一套獨特的比拚方式——

不用數據集,而是讓用戶自己出題,隨機拉兩個模型1對1battle,然後選擇哪個模型表現更好。

在給出選擇之前,模型是匿名的,用戶也不知道是哪兩個模型正在比拚,如果模型自己說漏嘴則投票無效。

這樣得到的分數更加真實,既避免了「刷題」獲取虛高分數的可能,也更加接近用戶體驗。

這個大模型競技場,最近還登上了機器學習頂會ICML2024

而且,lmsys的評測也非常受OpenAI的青睞,GPT-4omini正式上線之前的早期版本,就曾化名為gpt-mini在其中打榜。

當時就已經排行第4,和GPT4-Turbo處在同一水平。

更早一些,GPT-4o上線之前也是化名gpt2-chatbot,在lmsys上搞起了測試。

不過也有人提出質疑,表示雖然GPT-4o mini表現確實很好,但是要說它超過了Claude 3.5 sonnet就有些言過其實了。

有人更是直言,lmsys方法的完善性已經開始瓦解,需要做出改變,否則將不再是一個有用的測試基準。

「小模型」也捲起來了

mini版本的推出,主打的就是一個性價比。

每百萬輸入/輸出tokens,價格分別為15美分和60美分(約1.09/4.36人民幣),甚至還不到3.5 Turbo的一半。

如果和兩年前GPT-3的text-davinci-003版(當時最好的模型)相比,價格更是下降了99%。

而且除了把小模型開放給用戶,OpenAI還搞出了新鮮玩法——

在「超級對齊」團隊的一篇遺作中,使用了參數量為大模型千分之一或百分之一的小模型,來對大模型進行優化。

實驗中,大小兩個模型相互「博弈」,大模型需要不斷優化調整自己的輸出,讓小模型相信自己說的是真話。

在這個「博弈」的過程中,大模型的能力得到了提升,在精度沒有明顯損失的情況下獲得了大幅度的可理解性提升。

除了OpenAI,其他公司也都紛紛搞起了小模型。

比如在GPT-4o mini之前,Google和Anthropic就分別推出了Gemini Flash和Claude 3-Haiku。

甚至可以說,GPT-4o mini就是OpenAI對兩家的反擊,無論是性能還是價格都超越了這兩個模型。

在GPT-4o mini發佈的同一週,抱抱臉Hugging Face,以及「歐洲OpenAI」Mistral都相繼推出了小號模型。

甚至蘋果也推出了自己的7B模型,而且一次性開源了全部訓練過程和資源。

總之,在性能足以滿足使用需求的前提下,小模型無疑是一種更經濟實惠的選擇。

同時,更小的規模也意味著有可能在端側運行,在隱私保護等方面顯現出優勢。

這樣就不難理解,「小」模型為什麼也越來越捲了。

參考鏈接:

[1]https://x.com/sama/status/1815877987696533897/

[2]https://x.com/OpenAIDevs/status/1815836887631946015