项目简介: 'mcp-api-wrapper' 是一个示例项目,展示如何构建一个 Model Context Protocol (MCP) 服务器来包装现有的API。通过将传统的API功能(例如创建工单)注册为MCP工具,使得大型语言模型(LLM)客户端能够以标准化的方式调用这些功能。

主要功能点:

  • 作为MCP服务器运行,遵循MCP协议与LLM客户端通信。
  • 注册并暴露外部API功能(在此示例中是创建支持工单)作为LLM可调用的工具。
  • 通过HTTP传输协议处理来自LLM客户端的请求。
  • 将LLM的工具调用请求转换为对底层API的实际调用。

安装步骤:

  1. 克隆此GitHub仓库到本地。
  2. 打开终端,进入项目目录。
  3. 运行命令 'npm install' 安装所有项目依赖。
  4. 运行命令 'npm run build' 编译项目代码。
  5. 运行命令 'npm run dev' 启动开发服务器。

服务器配置: 该MCP服务器启动后监听在本地的4000端口。要让支持MCP的LLM客户端(如Anthropic Claude)连接并使用此服务器,您需要在客户端的配置中添加该服务器信息。典型的配置信息如下(请根据您的客户端实际情况调整):

请在您的LLM客户端配置中添加类似以下内容:

{
  "mcpServers": {
    "mcp-api-wrapper": {
      "command": "npx",
      "args": [
        "mcp-remote",
        "http://localhost:4000/mcp"
      ]
    }
  }
}

配置说明:

  • 'mcp-api-wrapper': 您为此MCP服务器指定的名称。
  • 'command': 启动用于连接此远程HTTP MCP服务器的客户端进程命令,这里使用了MCP官方提供的'mcp-remote'工具。
  • 'args': 传递给 'command' 的参数,'http://localhost:4000/mcp' 是该MCP服务器的访问地址。

基本使用方法: 在LLM客户端(如配置好的Claude桌面应用)中,通过自然语言向模型提出需要服务器执行的任务。例如,如果您已经注册了"创建工单"工具并成功连接了此服务器,您可以尝试输入:

请为 Mark Evans (邮箱 [email protected]) 创建一个工单,他遇到的问题是密码重置流程失败了。

如果模型识别出这是对已注册工具(创建工单)的调用,它将通过MCP协议向此服务器发送相应的JSON-RPC请求,服务器将执行创建工单的逻辑,并将结果反馈给模型。

信息

分类

AI与计算