摘要:Anthropic 于 2024 年 11 月推出的 Model Context Protocol (MCP) 标准化了 AI 应用程序如何与其训练数据之外的世界进行交互。就像 HTTP 和 REST 标准化了 Web 应用程序连接服务的方式一样,MCP 标准
MCP 并非依靠更大模型推动下一波 AI 创新,而真正的颠覆来自于一种更为低调的力量:标准化。
Anthropic 于 2024 年 11 月推出的 Model Context Protocol (MCP) 标准化了 AI 应用程序如何与其训练数据之外的世界进行交互。就像 HTTP 和 REST 标准化了 Web 应用程序连接服务的方式一样,MCP 标准化了 AI 模型连接工具的方式。
你可能已经阅读过不少关于 MCP 的文章,但大多数文章忽略了一个既平凡又强大的部分:MCP 是一个标准。标准不仅仅是组织技术,它们还能创造增长飞轮。早期采用者能够乘上这波浪潮,而忽视的人则会被甩在后面。本文将阐述为什么 MCP 现在尤为重要,它带来了哪些挑战,以及它如何正在重新塑造整个生态系统。
如何让 MCP 带领我们从混乱走向有序
认识一下 Lily —— 一家云基础设施公司的产品经理。她同时使用 Jira、Figma、GitHub、Slack、Gmail 和 Confluence 等半打工具,忙于处理各项项目。和许多人一样,她也被不断更新的信息淹没。
到了 2024 年,Lily 发现大语言模型在信息整合方面已经非常出色。她看到了一个机会:如果她能把团队所有使用的工具接入到一个模型中,她就可以实现自动更新、草拟通讯稿以及按需回答问题。但问题在于,每个大语言模型都有自己特定的服务接入方式。每一次集成都使她更加依赖于单一厂商的平台。当她需要从 Gong 获取记录时,就必须建立另一个定制化连接,这使得日后如果要切换到更优秀的大语言模型变得异常困难。
就在这时,Anthropic 推出了 MCP —— 一个开放协议,用于标准化上下文流向大语言模型的流程。MCP 很快得到了 OpenAI、AWS、Azure、Microsoft Copilot Studio 的支持,不久后 Google 也加入了。官方的 SDK 已经支持 Python、TypeScript、Java、C#、Rust、Kotlin 和 Swift,而社区版 SDK 也陆续为 Go 等语言提供支持。采用速度非常迅速。
如今,Lily 通过本地 MCP 服务器将一切都运行在 Claude 上,并与她在工作中使用的各类应用连接。状态报告自动生成,领导层更新只需一次提示。随着新模型的不断出现,她可以轻松替换而不必更换任何集成。当她私下写代码时,会同时使用 Cursor(配合 OpenAI 的模型)和同一个 MCP 服务器,就像她在使用 Claude 时一样。她的集成开发环境 (IDE) 已经能识别出她正在构建的产品,MCP 让这一切变得简单。
标准的力量及其影响
Lily 的经历揭示了一个简单的事实:没有人喜欢使用碎片化的工具;没有用户愿意被锁定在某个厂商中;而没有任何公司希望在每次更换模型时都得重写集成代码。大家都希望能够自由选择最好的工具,而 MCP 正好满足了这一需求。
然而,伴随标准的出现,也带来了若干影响。
首先,缺乏强大公共 API 的 SaaS 提供商正面临被淘汰的风险。MCP 工具依赖于这些 API,而用户将要求 AI 应用程序支持这些接口。随着事实标准的形成,再也没有借口可以推脱。
其次,AI 应用开发周期将大幅加速。开发者不再需要编写定制代码来测试简单的 AI 应用,取而代之的是他们可以将 MCP 服务器与现成的 MCP 客户端(例如 Claude Desktop、Cursor 和 Windsurf)进行集成。
第三,切换成本正在崩塌。因为集成方式已经与特定模型解耦,组织可以在 Claude、OpenAI、Gemini 之间自由迁移 —— 或者混合使用不同模型 —— 而无需重建基础设施。未来的大语言模型提供商将从围绕 MCP 构建的现有生态系统中受益,使得他们能更专注于实现更优的性价比。
面对 MCP 带来的挑战
每一个标准的出现都不可避免地引入新的摩擦点,或者留下未解决的摩擦点,MCP 也不例外。
信任至关重要:已经出现了数十个 MCP 注册中心,提供数以千计的社区维护服务器。但如果你无法控制服务器 —— 或者不信任控制服务器的一方 —— 则存在将机密泄露给未知第三方的风险。如果你是一家 SaaS 公司,应提供官方服务器;如果你是一位开发者,应选择官方服务器。
质量参差不齐:API 不断演进,而维护不佳的 MCP 服务器很容易不同步。大语言模型依赖高质量的元数据来决定使用哪些工具。到目前为止,还没有权威的 MCP 注册中心,这进一步凸显了来自可信方的官方服务器的重要性。如果你是一家 SaaS 公司,应随着 API 的演进维护好自己的服务器;如果你是一位开发者,请选择官方服务器。
大型 MCP 服务器会增加成本并降低实用性:将过多工具捆绑在一个服务器中会增加 Token 消耗,引发费用上升,而且会让模型面临过多选择而感到困惑。这无疑是两头不讨好。更小、更专注于任务的服务器将变得非常重要,在构建和分发服务器时需要牢记这一点。
授权和身份验证问题依然存在:这些问题在 MCP 之前就存在,MCP 推出后问题依然存在。想象一下,Lily 赋予 Claude 发送邮件的权限,并下达诸如“迅速给 Chris 发送一份状态更新”这样的指令。结果,Claude 没有只给她的老板 Chris 发邮件,而是给她通讯录中所有名叫 Chris 的人发送邮件,以确保 Chris 收到信息。对于高风险、高判断性的操作,人类仍然需要介入。
展望未来
MCP 并非虚名 —— 它代表了 AI 应用基础设施的一次根本性转变。
就像之前每一个被广泛采用的标准一样,MCP 正在形成一个自我强化的增长飞轮:每一个新服务器、每一次新集成、每一个新应用都会不断增加这一势能。
如今,新的工具、平台和注册中心已经在不断涌现,旨在简化 MCP 服务器的构建、测试、部署和发现。随着生态系统不断进化,AI 应用将提供简洁的接口,便于接入新功能。拥抱这一协议的团队将以更快的速度推出产品,同时实现更佳的集成体验。那些提供公共 API 和官方 MCP 服务器的公司也能成为这场集成变革的重要一环,而迟迟不接入的采用者则将为争取存在感而苦苦挣扎。
Noah Schwartz 是 Postman 的产品负责人。
来源:至顶网一点号