Claude 4被曝發佈在即!DeepSeek把大招都給逼出來了

衡宇 發自 凹非寺

量子位 | 公眾號 QbitAI

終於!終於!Claude 4被曝將在未來幾週內發佈

高亮重點,最新的它採取了一個與之前模型路線不同的辦法:

是個混合型大模型。

簡單來說,就是既帶有推理能力,會使用更多的算力來思考和解決難題;在面對簡單問題的時候,又能像傳統大模型一樣短平快地輕巧處理,無需多費不必要的功夫。

怎麼樣,聽起來是不是和昨天奧特曼透露的GPT-5非常類似(doge)

都是不再把傳統通用模型和推理模型分開推出,直接融合在一起。

據透露,Anthropic計劃在未來幾週內發佈該模型。

而翻遍互聯網發現,4天前就有人按捺不住,在Twitter上劇透過:

Anthropic內部員工告訴我,他們將在本週內發佈Claude 4,以及一個推理模型。

至於性能嘛,超過滿血o3!

俗話說得好:傳言有出入,期待需謹慎。

但還是禁不住狠狠期待一下!

下面一起來看更詳細的劇透——

Claude 4不走老路,可控制使用時的推理成本

如前所述,Claude 4與此前的通用大模型不同。

把通用模型和推理模型融合到一起去了,會根據具體任務,調整所需算力和所需功能

遇到複雜的問題,就啟用推理能力;遇到簡單的問題,就用通用模型處理。

而且用戶可以自行控制,每個問題需要耗費多少token——表現出來就是我可以規定它在每個具體的問題上思考推理多長時間。

具體操作,是使用者可以通過一個遊標刻度尺來調整,刻度上標註的是「完成任務所需的token數」。

如果將遊標滑動到「0」,那麼Claude 4就是一個傳統的、不帶推理能力的AI大模型。

滑動到的數值越大,所調用的算力就越多,思考推理過程就越長。

其實呢,OpenAI現在的模型也有類似功能。

不過OpenAI只分了「低-中-高」三檔,供用戶選擇推理強度。

但講道理,很難預測模型在每一檔位實際上會用掉多少tokens,所以很多用戶反饋「三個檔位並不能很好地控制使用成本」。

不過,這可能和OpenAI和Anthropic的市場定位有關係。

OpenAI更多針對的是普通用戶和個人開發者,三檔式更簡單易懂,方便操作。

而Anthropic更注重企業級市場,相對來說toB一些,所以採用了遊標刻度尺來調整,讓使用者控製成本、速度等。

推理通用二合一,下一個大趨勢?

可以看到,國外大模型的兩個最強玩家,Anthropic和OpenAI,都明確了下一步道路:

讓通用模型和推理模型合二為一。

幾週內將發佈的Claude 4如此,數月內將發佈的GPT-5也是如此。

這或許是所有基座大模型玩家的下一步共同選擇也未可知——

當傳統Scaling Law撞牆成為一個強共識,而後訓練、推理、CoT的重要性與日俱增時,推理變成通用模型的必需技能,似乎是大勢所趨。

不過在這中間,Anthropic有屬於自己的牢固生態位,那就是它旗下的Claude系列,編程能力一直站在第一梯隊的頂尖

而且它擅長的是大廠工程師所需級別的編程任務。

舉個例子,Claude系列更擅長理解由數千個文件組成的複雜代碼庫,並生成就能正常運行的完整代碼,且一次成功。

這就非常有意思了~

因為在面對複雜編程問題時,AI大模型往往會偷懶,僅提供註釋,而不是吐出實際代碼。

不過,現在還不清楚Claude 4將如何定價。

會比o3-mini便宜嗎?會比DeepSeek-R1便宜嗎?會比Google 2.0 Flash-Lite便宜嗎?

暫時還沒人知道。

不過有網民說出了大多數人的心聲:

如果花1000美元還解決不了我想解決的問題,那不是純純浪費錢嗎。

說白了,如果不是在某項實用能力上有「傲視群雄的拔尖實力」,或許所有模型玩家在定價這一part上能做的,就是像DeepSeek和Google 2.0 Flash-Lite一樣。

(忍痛)對著價格先狠狠砍一刀,然後再砍一刀,再砍一刀……

參考資料:

[1]https://x.com/iruletheworldmo/status/1888978299159756878

[2]https://x.com/kimmonismus/status/1890056488774676697