Google「狙擊」OpenAI,發佈新一代大模型,主打Agent+多模態

繼量子芯片之後,Google又來搶「OpenAI雙12直播」的流量了!

就在剛剛,Google新一代大模型Gemini 2.0突然登場,再次由GoogleCEO皮猜親自官宣。

新一代模型專為AI Agent而打造,Google表示目前已經將2.0版本提供給了一些開發者內測,正在迅速將其集成在Gemini和搜索等產品線中。

好消息是,Gemini 2.0 Flash實驗版模型今天就在網頁端開放,大家都能玩,移動端即將推出。

除此之外,Google還推出了一項名為深度研究(Deep Research)的新功能,基於高級推理和長上下文能力,它能直接幫你幹研究助理的活兒——給個主題,自己出報告的那種。

目前這個新功能在Gemini Advanced版本中可用。

Google這一波出手,再結合Sora的不盡如人意,新一天的直播還沒開始,已經有人開始唱衰OpenAI了:

OpenAI的護城河是什麼?

「面向智能體時代的新AI模型」

在GoogleCEO皮猜、Google DeepMind CEO哈薩比斯,以及Google DeepMind CTO科雷(Koray Kavukcuoglu)三人共同撰寫的博客文章中,官方給Gemini 2.0的定位是:

面向智能體時代的AI模型。

在多模態方面的新進展,以及原生工具的使用,使我們能夠構建新的AI智能體,以更接近實現通用助手的願景。

具體如何體現?在Gemini 2.0 Flash實驗版第一時間上線的同時,Google還在Gemini Advanced中推出了一項名為深度研究(Deep Research)的智能體新功能。

你可以把它當成以研究助理,圍繞一個複雜主題生成研究報告。有點像是個科研版AI搜索

另外一個Gemini 2.0的重點關鍵詞是:多模態

2.0 Flash實驗版除了支持圖像、影片、音頻多模態輸入,還支持多模態輸出。

不單單是簡單的圖文混排,可控的多語種文本到語音(湯臣S)輸出也行,還能直接本地調用工具,比如Google搜索、代碼工具、第三方用戶定義的功能。

有ChatGPT插件那味兒了。

不過,作為實驗模型,其文本到語音和原生圖像生成功能目前僅提供給早期訪問合作夥伴。Google透露2.0 Flash將在1月份正式推出,會提供更多不同大小的模型。

而根據Google發佈的基準測試結果,不論是在多模態的圖片、影片能力上,還是編碼、數學等能力上,僅是Flash實驗版的Gemini 2.0表現就已幾乎全面超越Gemini 1.5 Pro 002。

而且它的速度是1.5 Pro的兩倍。

Google表示,明年年初,會將Gemini 2.0擴展到更多旗下產品中,比如Project Astra。

就是I/O大會上Google推出來跟GPT-4o的語音功能打擂台的那個。

此次,基於Gemini 2.0,Project Astra更新了以下功能:

更好的對話:現在能夠以多種語言和混合語言進行對話,更好地理解口音和不常見的單詞。

使用新工具:Project Astra會用Google搜索、Lens和地圖了。

更強的記憶力:Project Astra現在擁有10分鐘的會話記憶,並且可以記住更多歷史對話,也就說,憑藉這些「記憶」,它能更懂你了。

改進延遲:Project Astra可以按正常人類對話的節奏來理解對話。

Google還提到,正在將Project Astra移植到眼鏡等更多移動終端中。

另外,Google透露,他們正在和Supercell等遊戲開發商合作,測試基於Gemini 2.0打造的遊戲智能體們的實力。

這些智能體可以根據屏幕上的動作對遊戲進行推理,並與玩家實時對話提供行動建議。

玩《突擊小隊》、《部落衝突》、《農場日記》,場面belike:

除了網頁端可用,Gemini 2.0 Flash實驗模型還通過Google AI Studio和Vertex AI的Gemini API向開發者提供。

從OpenAI跳槽到Google的Logan Kilpatrick表示,他們在Google AI Studio中創建了一個全新體驗,展示了Gemini 2.0影片理解、原生工具使用、空間理解的入門應用。

那麼,你覺得這夠Agent嗎?

參考鏈接:

[1]https://x.com/GoogleDeepMind/status/1866869343570608557

[2]https://blog.google/technology/google-deepmind/google-gemini-ai-update-december-2024/#ai-game-agents

本文來自微信公眾號「量子位」,作者:關注前沿科技,36氪經授權發佈。