摘要:OpenAI昨夜又放大招,Agents SDK接入行业标准MCP,下一步加持ChatGPT桌面版,要彻底颠覆每个人AI工作流。
编辑:编辑部 HNY
【新智元导读】OpenAI昨夜又放大招,Agents SDK接入行业标准MCP,下一步加持ChatGPT桌面版,要彻底颠覆每个人AI工作流。
自从昨天OpenAI将GPT-4o的原生图像生成同步开放给免费用户后,今天他们又Open了一把。
就在刚刚,OpenAI对其Agents SDK进行了重大更新,支持了对手Anthropic推出的MCP服务协议。
凌晨2点,奥特曼便迫不及待地公布了这个消息。
「大家都挺喜欢MCP的,我们也很兴奋能在我们的产品中支持它,」Altman说。
「今天就可以在Agents SDK里使用,ChatGPT桌面应用和Responses API也很快支持!」
OpenAI负责API的研究员Steven Heidel还在X上贴出了一张现在最火的吉卜力风格图片,来解释MCP的用处。
图片展示了一个基于MCP协议的分布式系统架构。
左边有一个主机运行MCP客户端(例如ChatGPT等应用),通过MCP协议与三个不同的MCP服务器(A、B、C)通信。
MCP服务器A和B分别连接到本地数据源,处理本地数据,而MCP服务C通过Web API与互联网上的远程服务C交互,获取外部数据。
表明了MCP客户端可以根据需求从不同的服务器获取数据或服务。
MCP持续火爆
MCP允许AI模型从业务工具、软件、数据库以及应用开发环境等来源中获取数据完成任务。
可以使开发者能够在数据源和AI应用(如聊天机器人)之间建立双向连接。
自从去年11月Anthropic把MCP服务协议开源后,几个月来,很多像Block、Apollo、Replit这样的公司都在自己的平台上支持了此协议。
到了今年2月,MCP生态进一步爆炸增长,已有超过1000个由社区构建的MCP服务器可供使用。
而且这种网络效应会使MCP越来越有吸引力:通过MCP可用的工具越多,该标准的实用性就越大。
「很高兴看到MCP的热爱传递到了OpenAI——欢迎!」Anthropic的首席产品官Mike Krieger在X上发帖说。
「MCP已经成了一个蓬勃发展的开放标准,已经有几千个集成应用,而且还在增加。只有当LLM能够连接你现有的数据和日常使用的软件时,它们才能发挥最大的作用。」
前段时间,霸榜开源第一的00后博士生0天复刻Manus项目OWL爆火。今天,CAMEL AI团队创始人李国豪表示:
看到OpenAI加入MCP生态是非常激动的,有想过会有这一天,但没有想到会这么快。
MCP推出已有一段时间,如今它逐步成为标准,主要是因为它提供了极大的便利性,同时又是一个开放中立的协议。
MCP的意义远远超过了一个简单的协议本身,而在于推动标准化的进程。实际上,这个协议由谁提出并不重要。
在标准缺失的情况下,各个团队都在独立开发自己的工具,如LangChain、LlamaIndex等,导致不同框架的Agent难以互通,不同框架的工具也难以兼容。
而有了MCP,这个问题就变得简单了。它的价值在于降低对特定框架的依赖,让开发者只需遵循统一标准,就能自由使用各种工具。
官方SDK文档
随着OpenAI在Agents SDK中加入对MCP的支持,开发者现在可以轻松地利用各种MCP服务器,为自己的AI智能体提供丰富的工具能力。
MCP服务器
目前,MCP规范根据传输机制的不同定义了两种服务器类型:
stdio服务器:作为应用程序的子进程运行,可以理解为「本地」运行的服务器HTTP over SSE服务器:远程运行的服务器,可以通过URL与之连接开发者可以使用MCPServerStdio和MCPServerSse这两个类来连接这些服务器。
下面是一个使用官方MCP文件系统服务器的示例。
async with MCPServerStdio( params={ "command": "npx", "args": ["-y", "@modelcontextprotocol/server-filesystem", samples_dir], }) as server: tools = await server.list_tools如何使用
开发者可以将MCP服务器集成到AI智能体中。
当AI智能体每次执行时,Agents SDK会自动在MCP服务器上调用list_tools函数。这一过程使LLM能够识别并获取MCP服务器提供的各种工具。
当LLM需要调用来自MCP服务器的某个工具时,SDK会相应地在该服务器上执行call_tool函数。
agent=Agent( name="Assistant", instructions="Use the tools to achieve the task", mcp_servers=[mcp_server_1, mcp_server_2])缓存机制
每次AI智能体运行时,系统都会调用MCP服务器的list_tools方法。这一过程可能会产生明显的性能开销,尤其是在使用远程服务器的情况下。
为了优化性能,开发者可以通过在MCPServerStdio和MCPServerSse构造函数中设置参数cache_tools_list=True来启用工具列表自动缓存功能。请注意:只有确信工具列表不会发生变化时,才应启用此功能。
如需手动清除缓存,可以调用服务器对象的invalidate_tools_cache方法。
链路追踪
系统内置的链路追踪功能能够自动捕获所有MCP相关操作,主要包括:
向MCP服务器发起的工具列表获取请求函数调用过程中的所有MCP相关信息MCP一夜成为行业标准
MCP这一概念,还是Anthropic在去年11月首次提出,全称为「模型上下文协议」,能够实现一次构建,让AI深度集成。
MCP是一个开放协议,它标准化了应用程序向LLM提供上下文的方式。你可以把MCP比作AI应用的USB-C接口——就像USB-C为设备连接各种外设和配件提供了标准化接口一样,MCP为AI模型连接不同的数据源和工具提供了标准化方法。
它的本质,是为了提供一个「通用接口」,好比AI世界「万能插头」。
也就是所说,不同AI模型/应用能够轻松连接到外部资源。这种标准化可以降低开发者的集成成本,同时提升了AI上下文感知力。
Agents SDK是前段时间,OpenAI为开发者准备的「工具箱」,用来打造自己干活的AI智能体,比如写邮件、整理数据。
现在这两者一拍即合,意味着什么?
OpenAI员工用ChatGPT绘制吉卜力风格跟踪仪表板
开发者可用Agents SDK,直接通过MCP调取各种外部数据、工具,让AI能够变得更聪明、更实用。
而这仅仅是个开始,奥特曼透露的未来两个令人期待的计划,将进一步加速AI工作流。
如果ChatGPT客户端也能用上MCP,就会化身为超级私人助理,去年11月每个人从Claude演示中能够获得关键一瞥。
对于开发者来说,MCP加入OpenAI API,未来可以用更少代码,干更多的事儿。
下一代AI工作流,说不定就从这儿起飞了。
来源:新智元