随着AI助手逐渐成为主流,行业在模型能力上投入了大量资金,实现了推理和质量的快速进步。然而,即使是最复杂的模型也受到其与数据隔离的限制——被困在信息孤岛和遗留系统之后。每个新的数据源都需要其自定义实现,使得真正连接的系统难以扩展。
MCP 解决的问题
为了解决这一挑战,Anthropic 开源了模型上下文协议(Model Context Protocol, MCP)。MCP 提供了一个通用的、开放的标准,用于将AI系统与数据源连接起来,用单一协议取代碎片化的集成。这样,AI系统能够更简单、更可靠地访问所需的数据。
MCP 的主要组件
今天,Anthropic 为开发者介绍了MCP的三个主要组件:
- 模型上下文协议规范和SDK:提供了详细的规范和开发工具,帮助开发者构建其数据源与AI驱动工具之间的安全双向连接。(GitHub:https://github.com/modelcontextprotocol)
- Claude桌面应用程序中的本地MCP服务器支持:Claude是Anthropic的AI助手。通过Claude桌面应用程序,开发者可以轻松地在本地设置MCP服务器,连接到内部系统和数据集。(地址:https://claude.ai/download)
- 开源的MCP服务器仓库:提供了预构建的MCP服务器实现,支持流行的企业系统,如Google Drive、Slack、GitHub、Git、Postgres和Puppeteer。(GitHub:https://github.com/modelcontextprotocol/servers)
早期采用者和合作伙伴
- Block:开源不仅仅是开发模型,而是工作的基础。Block的首席技术官Dhanji R. Prasanna表示:“像模型上下文协议这样的开放技术是连接AI与现实应用的桥梁,确保创新是可访问的、透明的,并以合作为基础。”
- 开发工具公司:Zed、Replit、Codeium和Sourcegraph等公司正在与MCP合作,以增强其平台,使AI代理能够更好地检索相关信息,进一步理解编码任务的上下文,并在更少的尝试中生成更细致和功能性的代码。
开发者的益处
- 简化集成:开发者现在可以针对一个标准协议进行构建,而不是为每个数据源维护单独的连接器。
- 保持上下文:随着生态系统的成熟,AI系统将在不同工具和数据集之间移动时保持上下文,用更可持续的架构取代今天的碎片化集成。
开始使用
开发者现在可以开始构建和测试MCP连接器:
- 通过Claude桌面应用程序安装预构建的MCP服务器:现有的Claude for Work客户可以开始在本地测试MCP服务器,将Claude连接到内部系统和数据集。
- 按照快速入门指南构建您的第一个MCP服务器:我们提供了详细的指南,帮助开发者快速上手。
- 为开源仓库做出贡献:加入社区,为连接器和实现的开源仓库贡献代码和想法。
社区和支持
Anthropic 致力于将MCP作为一个协作的、开源项目和生态系统来构建。Anthropic渴望听到您的反馈。无论您是AI工具开发者、希望利用现有数据的企业,还是探索前沿的早期采用者,Anthropic都邀请您一起构建上下文感知AI的未来。