在 AI 时代,大语言模型(LLM)已展现出惊人能力,但它们天生存在两大硬伤:知识固定在训练时刻,以及无法与外部世界交互。这意味着 LLM 无法获取实时数据,也无法执行实际操作。2024 年 11 月,Anthropic 推出了 Model Context Protocol(MCP,模型上下文协议),一个旨在彻底解决这些问题的开放标准。
在MCP技术架构中主要包含以下三个关键概念,分别是MCP 主机(Host)、MCP 客户端(Client)、MCP 服务器(Server)。
MCP 主机(Host):这是用户与 AI 交互的入口(如 AI 驱动的 IDE、聊天应用)。负责接收用户请求,调用 LLM 处理可能需要外部数据的任务
MCP 客户端(Client):运行在主机内部,充当“翻译官”。LLM 的请求转为 MCP 格式 → 发现并调用 MCP 服务器 → 将服务器响应转回 LLM 可理解的格式。
MCP 服务器(Server):外部服务,提供数据或功能(如数据库、Web API、业务系统)。连接真实世界资源,将响应格式化为 LLM 可用的上下文。
使用 MCP 的核心优势
1.LLM 本质上可能会编造事实,或生成看似合理但实则错误的信息(产生幻觉),因为其回答基于训练数据而非实时信息。MCP 提供清晰路径,使 LLM 能访问外部可靠数据源,从而提高回答的真实性并减少幻觉。
2.该协议可扩展 AI 的能力,并实现其自主运行。通常,LLM 仅了解其训练数据,而这些数据可能很快变得过时。不过,借助 MCP,LLM 可以连接多个现成工具与集成,如业务软件、内部数据库和开发环境。这意味着 AI 能胜任更复杂的任务,通过直接连接这些外部工具,LLM 不再是单一的聊天程序,而是具备自主行为能力的智能体,从而实现更大程度的自动化。
3.在 MCP 推出之前,LLM 要与外部数据源或工具对接,常常需要为每对组合编写专属适配器或依赖供应商锁定的私有接口。这导致系统迅速陷入“N×M”连接爆炸,每新增一个模型或一个工具,定制化工作量就呈指数级增长,维护成本高企、扩展性极差。MCP 以统一开放标准打破这一困局,开发者只需实现一次 MCP 协议,即可在多个模型中重复使用。
将MCP应用到工作中的思考
当前 AI 应用主要聚焦于代码补全与智能对话,但随着 VS Code、JetBrains 等主流编辑器全面支持 MCP 服务器接入,AI 正从“辅助工具”跃升为“项目级智能协作者”。
我们可将 特来电组件库开发 API 封装为标准 MCP 服务,无缝嵌入 VS Code。开发者只需一键连接,即可在编辑器内实时调用组件元数据、依赖关系与迁移规则。当进行大规模项目迁移时,AI 能:
这一能力将组件迁移从“人工对表+逐文件替换”的繁琐工程,转变为 智能驱动、分钟级完成 的流畅体验,显著提升研发效率与交付质量