OpenAI回應一切,o1/GPT年前都會升級!奧特曼:別嫌慢,問就是缺算力
一水 發自 凹非寺
量子位 | 公眾號 QbitAI
關於OpenAI的一切消息,官方這次全回應了!!
就在剛剛,CEO奧特曼攜4大高管集體亮相reddit有問必答活動(AMA ),挨個回覆了大家對OpenAI主要產品、AGI路線規劃等提問。
具體陣容包括,首席產品官Kevin Weil、高級研究副總裁Mark Chen、工程副總裁Srinivas Narayanan和首席科學家Jakub Pachocki。
如此豪華陣容也當即引來大量關注,僅過去幾小時,reddit已有4000多條網民留言。
先來個省流版,在這次活動上,OpenAI團隊主要透露了:
-
年底將會有重大更新,但不會命名為GPT-5
-
當前的硬件可以實現AGI
-
缺少計算資源是阻礙產品推遲的主要因素
-
圖像生成模型DALL-E的下次更新值得期待,但目前無發佈計劃
-
讓ChatGPT自主執行任務將是明年一大重點
-
Sora還需要完善,暫無明確發佈時間表
-
o1系列和GPT系列將同步推進,未來也可能整合
-
o1滿血版即將推出
-
……
好傢伙,這次的信息密度有億點高,準備好瓜子咱們接著嘮(doge)。
OpenAI回應一切
一上來,網民們就開始了貼臉開大,紛紛喊話對面的OpenAI團隊:
你還記得大明湖畔的Sora、GPT-4o影片通話、DALL-A……嗎?
對此,CEO奧特曼開始訴苦(bushi,承認缺少計算能力是阻礙公司更快交付產品的主要因素。
最近還有報導稱,奧特曼和OpenAI首席財務官對員工抱怨,微軟行動速度不夠快,沒有提供足夠的服務器。
兩家的聯盟關係也正在逐漸破裂,並開始互相視對方為備胎——
OpenAI找了甲骨文做額外的雲計算供應商,微軟也開始在自家產品中接入Google和Anthropic模型。
除此之外,為了減少對英偉達的芯片依賴,OpenAI近幾個月還在與博通合作開發AI芯片,不過預計最早要等到2026年才能上市。
多方跡象顯示,OpenAI目前確實在計算能力上面臨壓力。
不過拋開這點不談,奧特曼此次自信宣稱,人類當前的硬件已經可以實現AGI了。
與此同時,更多重點產品消息釋出:
首先,奧特曼照例放出重磅煙霧彈,暗示年底可能會發佈重要產品,只不過不會將其命名為GPT-5。
他表示,一方面模型變得越來越複雜了,另一方面有限的算力還需要分配給「許多偉大的想法」。(傳聞OpenAI擅長在內部同時推進很多項目)
而對於當前存在的GPT和o1系列模型,OpenAI目前會同步開發、發佈,不過將來也不排除整合的可能性。
同時,o1滿血版將很快推出。
另外,對於大家一直關注的影片生成模型Sora,目前還是沒有明確的發佈時間表。
官方說法是,Sora還需要進一步完善,需要考慮安全方面的因素。(Sora負責人前一陣還跳槽Google了)
同樣的,對於期待值頗高的GPT-4o的影片通話功能,以及久未更新的圖像生成模型DALL-E系列,OpenAI仍然態度曖昧模糊,能夠看出,他們的重點目前不在這些上面。
所以,OpenAI最近的重點是什麼呢?
最新答案來了:AI搜索。
就在今天,ChatGPT新增了搜索功能,背後由GPT-4o的微調版本提供支撐,而且網頁版、手機版、桌面版同時上線。
據介紹,其最主要的亮點是「快速獲取準確答案,並提供相關網頁鏈接」,無需再切換至其它的搜索引擎。
有網民藉機提問奧特曼,ChatGPT search優勢何在?我們為什麼要放棄傳統搜索引擎?
對此,奧特曼認為AI搜索主要應用於更複雜的場景,最好能動態呈現自定義網頁作為響應。
而且OpenAI透露,ChatGPT搜索仍然使用了微軟的Bing。
最後,OpenAI明年的重點之一是——讓ChatGPT自主執行任務。
要知道,隔壁家的Claude目前已經能接管我們的電腦了,僅需輸入指令,Claude就能幫我們完成訂比薩、做攻略等任務。(OpenAI要加油了)
網民們還關注這些
除了上面這些大眾關切,部分網民也原地開啟了許願模式。
Q:GPT-4o的文本能否擴展?32k不太夠用。
A:在努力了!
而且不止GPT-4o,OpenAI可能會為ChatGPT增加上下文窗口。
Q:ChatGPT可以做但目前還不能做的一件事是什麼?
A:代替人類,自主理解並執行任務。
Q:ChatGPT的最佳用例以及未來在哪些領域會特別有用?
A:發現並治療疾病,以及加速新的科學發現。
Q:是否有計劃發佈一項新功能,讓用戶能看到自己在ChatGPT被引用的方式和頻率?
A:會考慮這個好主意,目前沒有計劃。
Q:AGI是否可以通過已知的神經網絡架構實現,或者是否需要新的科學(基礎)突破?
A:如果架構突破是由現有的LLM提出的,這算不算?(暗示新架構也可能由LLM提出)
Q:高級語音的API成本會降低嗎?
A:語音和其他功能都考慮進一步降低成本。(GPT-4o mini的成本目前是GPT-3的2%)
Q:模型幻覺會成為永久性特徵嗎?如何應對?
A:很難避免,OpenAI正在使用的解決方案包括:加強出處引用、使用強化學習(模型不產生幻覺時,實行獎勵)。
Q:對明年的大膽預測?
A:使所有基準測試達到飽和。(自信起來)
最後,有人突發奇想,提問奧特曼是否會使用ChatGPT來回答上述問題。
結果沒想到,還真有。(就emmm……)
Ilya看到了什麼?
有意思的是,一聽到OpenAI團隊要來個「知無不言」,大傢伙兒不約而同地又問出了那句:
what did Ilya see?
懟到眼前來了,CEO奧特曼自知躲不過,於是乖巧回覆道:
他是一位令人難以置信的有遠見的人,他的一些最初想法最終成就了o1模型。
嗯,感覺每次回答都一樣,大家可以放棄這個問題了(doge)。
問不出來,真的問不出來……
參考鏈接:
[1]https://www.reddit.com/r/ChatGPT/comments/1ggixzy/ama_with_openais_sam_altman_kevin_weil_srinivas/
[2]https://x.com/OpenAI/status/1852041839567867970
[3]https://news.ycombinator.com/item?id=42010712