淩晨2點,再次Open,奧特曼宣佈:OpenAI正式支持對手MCP協議

OpenAI昨夜又放大招,Agents SDK接入行業標準MCP,下一步加持ChatGPT桌面版,要徹底顛覆每個人AI工作流。

自從昨天OpenAI將GPT-4o的原生圖像生成同步開放給免費用戶後,今天他們又Open了一把。

就在剛剛,OpenAI對其Agents SDK進行了重大更新,支持了對手Anthropic推出的MCP服務協議。

淩晨2點,奧特曼便迫不及待地公佈了這個消息。

「大家都挺喜歡MCP的,我們也很興奮能在我們的產品中支持它,」Altman說。

「今天就可以在Agents SDK里使用,ChatGPT桌面應用和Responses API也很快支持!」

OpenAI負責API的研究員Steven Heidel還在X上貼出了一張現在最火的吉卜力風格圖片,來解釋MCP的用處。

圖片展示了一個基於MCP協議的分佈式系統架構。

左邊有一個主機運行MCP客戶端(例如ChatGPT等應用),通過MCP協議與三個不同的MCP服務器(A、B、C)通信。

MCP服務器A和B分別連接到本地數據源,處理本地數據,而MCP服務C通過Web API與互聯網上的遠程服務C交互,獲取外部數據。

表明了MCP客戶端可以根據需求從不同的服務器獲取數據或服務。

MCP持續火爆

MCP允許AI模型從業務工具、軟件、數據庫以及應用開發環境等來源中獲取數據完成任務。

可以使開發者能夠在數據源和AI應用(如聊天機器人)之間建立雙向連接。

自從去年11月Anthropic把MCP服務協議開源後,幾個月來,很多像Block、Apollo、Replit這樣的公司都在自己的平台上支持了此協議。

到了今年2月,MCP生態進一步爆炸增長,已有超過1000個由社區構建的MCP服務器可供使用。

而且這種網絡效應會使MCP越來越有吸引力:通過MCP可用的工具越多,該標準的實用性就越大。

「很高興看到MCP的熱愛傳遞到了OpenAI——歡迎!」Anthropic的首席產品官Mike Krieger在X上發帖說。

「MCP已經成了一個蓬勃發展的開放標準,已經有幾千個集成應用,而且還在增加。只有當LLM能夠連接你現有的數據和日常使用的軟件時,它們才能發揮最大的作用。」

前段時間,霸榜開源第一的00後博士生0天複刻Manus項目OWL爆火。今天,CAMEL AI團隊創始人李國豪表示:

看到OpenAI加入MCP生態是非常激動的,有想過會有這一天,但沒有想到會這麼快。

MCP推出已有一段時間,如今它逐步成為標準,主要是因為它提供了極大的便利性,同時又是一個開放中立的協議。

MCP的意義遠遠超過了一個簡單的協議本身,而在於推動標準化的進程。實際上,這個協議由誰提出並不重要。

在標準缺失的情況下,各個團隊都在獨立開發自己的工具,如LangChain、LlamaIndex等,導致不同框架的Agent難以互通,不同框架的工具也難以兼容。

而有了MCP,這個問題就變得簡單了。它的價值在於降低對特定框架的依賴,讓開發者只需遵循統一標準,就能自由使用各種工具。

官方SDK文檔

隨著OpenAI在Agents SDK中加入對MCP的支持,開發者現在可以輕鬆地利用各種MCP服務器,為自己的AI智能體提供豐富的工具能力。

MCP服務器

目前,MCP規範根據傳輸機制的不同定義了兩種服務器類型:

stdio服務器:作為應用程序的子進程運行,可以理解為「本地」運行的服務器

H湯臣P over SSE服務器:遠程運行的服務器,可以通過URL與之連接

開發者可以使用MCPServerStdio和MCPServerSse這兩個類來連接這些服務器。

如何使用

開發者可以將MCP服務器集成到AI智能體中。

當AI智能體每次執行時,Agents SDK會自動在MCP服務器上調用list_tools()函數。這一過程使LLM能夠識別並獲取MCP服務器提供的各種工具。

當LLM需要調用來自MCP服務器的某個工具時,SDK會相應地在該服務器上執行call_tool()函數。

緩存機制

每次AI智能體運行時,系統都會調用MCP服務器的list_tools()方法。這一過程可能會產生明顯的性能開銷,尤其是在使用遠程服務器的情況下。

為了優化性能,開發者可以通過在MCPServerStdio和MCPServerSse構造函數中設置參數cache_tools_list=True來啟用工具列表自動緩存功能。請注意:只有確信工具列表不會發生變化時,才應啟用此功能。

如需手動清除緩存,可以調用服務器對象的invalidate_tools_cache()方法。

鏈路追蹤

系統內置的鏈路追蹤功能能夠自動捕獲所有MCP相關操作,主要包括:

向MCP服務器發起的工具列表獲取請求

函數調用過程中的所有MCP相關信息

MCP一夜成為行業標準

MCP這一概念,還是Anthropic在去年11月首次提出,全稱為「模型上下文協議」,能夠實現一次構建,讓AI深度集成。

MCP是一個開放協議,它標準化了應用程序向LLM提供上下文的方式。你可以把MCP比作AI應用的USB-C接口——就像USB-C為設備連接各種外設和配件提供了標準化接口一樣,MCP為AI模型連接不同的數據源和工具提供了標準化方法。

它的本質,是為了提供一個「通用接口」,好比AI世界「萬能插頭」。

也就是所說,不同AI模型/應用能夠輕鬆連接到外部資源。這種標準化可以降低開發者的集成成本,同時提升了AI上下文感知力。

Agents SDK是前段時間,OpenAI為開發者準備的「工具箱」,用來打造自己幹活的AI智能體,比如寫郵件、整理數據。

現在這兩者一拍即合,意味著什麼?

OpenAI員工用ChatGPT繪製吉卜力風格跟蹤儀表板OpenAI員工用ChatGPT繪製吉卜力風格跟蹤儀表板

開發者可用Agents SDK,直接通過MCP調取各種外部數據、工具,讓AI能夠變得更聰明、更實用。

而這僅僅是個開始,奧特曼透露的未來兩個令人期待的計劃,將進一步加速AI工作流。

如果ChatGPT客戶端也能用上MCP,就會化身為超級私人助理,去年11月每個人從Claude演示中能夠獲得關鍵一瞥。

對於開發者來說,MCP加入OpenAI API,未來可以用更少代碼,干更多的事情。

下一代AI工作流,說不定就從這兒起飛了。

參考資料:

OpenAI adopts rival Anthropic’s standard for connecting AI models to data

https://x.com/sama/status/1904957253456941061

https://huggingface.co/blog/Kseniase/mcp

本文來自微信公眾號「新智元」,作者:HNY ,36氪經授權發佈。