ChatGPT首次帶圖深度思考:OpenAI連發o3/o4 mini,比前代性能更強價格更低
量子位 | 公眾號 QbitAI
僅隔一天,OpenAI再次突然放大招:
一口氣,o3和o4 mini同步上線。

依然是最熱門推理模型,並且這一次,它們終於能夠調用ChatGPT里的各種工具了,包括網絡搜索、Python、圖像分析、文件解釋和圖像生成。
也就是說,你現在可以也用o3來生成吉卜力風格的奧特曼抱子圖了(doge)。

還不只是能看懂、生成圖像,官方提到,o3和o4-mini是OpenAI首次能將上傳圖像集成到思維鏈中的模型——
這意味著,它們可以基於圖像展開思考,be like:
OpenAI表示,o3是他們目前最強大的推理模型,在編程、數學、科學、視覺感知等多個維度的基準測試中都刷新了SOTA,在分析圖像、圖表和圖形等視覺任務中表現尤為出色。

在外部專家評估中,o3在困難現實任務中,能比o1少犯20%的重大錯誤。
而o4-mini則是一款專為快速、經濟高效的推理而優化的小模型。
在專家評估中,o4-mini在非STEM任務以及數據科學領域都超過了前代的o3-mini。
在AIME 2024和AIME 2025中,甚至有超過o3的表現。

即日起,ChatGPT的Plus、Pro會員以及Team用戶,都能直接體驗o3、o4-mini和o4-mini-high,而原本的o1、o3-mini和o3-mini-high則已悄然下架。

實測o3/o4-mini
所以,在基準測試上表現如此強勢的o3和o4-mini,具體能帶來哪些體驗上的改變?
Talk is cheap,來看實測案例。
在OpenAI的官方直播中,研究員們展示了這樣一個用法:
讓o3直接讀一份未完成的學術海報,讓它根據其中的研究線索,幫忙估算質子的同位旋矢量標量電荷,並搜索相關最新研究成果,對比新成果跟估算值的不同。

思考了不到3分鐘,o3完全沒有被難住,吐出了這樣的結果:

網民們也第一時間給o3和o4-mini上了小球測試:

還有醫學教授在搶先體驗後表示:完全停不下來。
我覺得o3的智能程度已經達到或接近天才水平了!

這位醫學專家表示,他在向o3提出一些頗具挑戰的臨床或醫學問題時,o3能給出像直接來自頂級專科醫生的回答。
我們也簡單測試了一下,比如讓o3和o4-mini分別解讀一下「洛就完了」表情包。

o3:

o4-mini:

你pick哪個答案?
強化學習的Scaling Law
值得注意的是,在OpenAI o3的開發過程中,研究人員觀察到:
大規模強化學習呈現出與預訓練一樣的「更大計算量=更好性能」的趨勢。
而o3正是通過在強化學習中踐行Scaling Law,得到了明顯的性能提升。
OpenAI表示:
這證明了模型性能會隨著思考時間的增加而持續提升。
在延遲和成本與OpenAI o1相同的條件下,o3實現了更強的性能——而且我們已經驗證,如果讓它思考更長時間,它的性能還會持續提升。

不過自打DeepSeek成了攪動大模型格局的鯰魚,OpenAI也是越來越強調「性價比」了:
相比o1和o3-mini,o3和o4-mini更強了,但卻更經濟了!
比如,在AIME 2025中,o4-mini比之o3-mini、o3比之o1,都能在同樣的推理成本下拿到更高的分數。


API定價方面,拉上1天前剛剛亮相的GPT-4.1,具體價格如下:

One More Thing
OpenAI再次開源了!發佈一款一款本地代碼智能體Codex CLI。
可將自然語言轉化為可運行的代碼,兼容所有OpenAI模型,包括剛剛發佈的o3、o4-mini和GPT-4.1。

Codex CLI為已經習慣使用終端,並希望擁有ChatGPT級別推理能力以及實際運行代碼、操作文件和迭代能力的開發者打造。
它是一種聊天驅動的開發方式 ,能夠理解並執行本地代碼庫。

https://github.com/openai/codex
參考資料:
[1]https://openai.com/index/introducing-o3-and-o4-mini/
[2]https://x.com/sama/status/1912558064739459315
一鍵三連「點讚」「轉發」「小心心」
歡迎在評論區留下你的想法!