项目简介: 'mcp-api-wrapper' 是一个示例项目,展示如何构建一个 Model Context Protocol (MCP) 服务器来包装现有的API。通过将传统的API功能(例如创建工单)注册为MCP工具,使得大型语言模型(LLM)客户端能够以标准化的方式调用这些功能。
主要功能点:
- 作为MCP服务器运行,遵循MCP协议与LLM客户端通信。
- 注册并暴露外部API功能(在此示例中是创建支持工单)作为LLM可调用的工具。
- 通过HTTP传输协议处理来自LLM客户端的请求。
- 将LLM的工具调用请求转换为对底层API的实际调用。
安装步骤:
- 克隆此GitHub仓库到本地。
- 打开终端,进入项目目录。
- 运行命令 'npm install' 安装所有项目依赖。
- 运行命令 'npm run build' 编译项目代码。
- 运行命令 'npm run dev' 启动开发服务器。
服务器配置: 该MCP服务器启动后监听在本地的4000端口。要让支持MCP的LLM客户端(如Anthropic Claude)连接并使用此服务器,您需要在客户端的配置中添加该服务器信息。典型的配置信息如下(请根据您的客户端实际情况调整):
请在您的LLM客户端配置中添加类似以下内容:
{ "mcpServers": { "mcp-api-wrapper": { "command": "npx", "args": [ "mcp-remote", "http://localhost:4000/mcp" ] } } }
配置说明:
- 'mcp-api-wrapper': 您为此MCP服务器指定的名称。
- 'command': 启动用于连接此远程HTTP MCP服务器的客户端进程命令,这里使用了MCP官方提供的'mcp-remote'工具。
- 'args': 传递给 'command' 的参数,'http://localhost:4000/mcp' 是该MCP服务器的访问地址。
基本使用方法: 在LLM客户端(如配置好的Claude桌面应用)中,通过自然语言向模型提出需要服务器执行的任务。例如,如果您已经注册了"创建工单"工具并成功连接了此服务器,您可以尝试输入:
请为 Mark Evans (邮箱 [email protected]) 创建一个工单,他遇到的问题是密码重置流程失败了。
如果模型识别出这是对已注册工具(创建工单)的调用,它将通过MCP协议向此服务器发送相应的JSON-RPC请求,服务器将执行创建工单的逻辑,并将结果反馈给模型。
信息
分类
AI与计算