使用说明
项目简介
本项目是一个示例性质的MCP服务器,它展示了如何使用 'FastMCP' 库将 CustomGPT 的功能集成到任何支持 Model Context Protocol (MCP) 的大型语言模型 (LLM) 客户端,例如 Claude 桌面应用。通过此服务器,LLM客户端可以调用CustomGPT的功能,例如与Claude模型进行对话。
主要功能点
- 工具 (Tools): 提供 'stream_to_claude' 工具,允许LLM客户端指示服务器通过CustomGPT与Claude模型进行流式对话。这使得LLM客户端能够利用CustomGPT项目配置的知识库和模型能力。
- 资源 (Resources): 提供 'get_context' 资源,虽然示例中只是一个占位符,但它演示了如何定义和提供上下文数据,这在实际应用中可以扩展为从数据库或知识库中检索信息。
- MCP协议支持: 使用 'FastMCP' 库,天然支持MCP协议,能够处理MCP客户端的请求并返回符合MCP协议的响应。
安装步骤
- 克隆仓库:
git clone https://github.com/authentichamza/customgpt-mcp.git cd customgpt-mcp - 安装依赖:
确保你的Python环境满足要求 (Python 3.10 或更高版本)。然后安装项目依赖:
pip install -r requirements.txt - 安装MCP服务器:
使用 'mcp' 命令行工具安装 'main.py' 作为 MCP 服务器。 如果你还没有安装 'mcp' 工具,需要先安装 'fastmcp' 库: 'pip install fastmcp'。
mcp install main.py
服务器配置
MCP客户端需要配置连接到此MCP服务器的信息。以下是一个典型的JSON格式配置示例,你需要将此配置添加到你的MCP客户端中 (例如 Claude 桌面应用的 MCP 配置):
{ "serverName": "CustomGPT-Integration", // 服务器名称,在 main.py 中定义 "command": "mcp", // 启动服务器的命令,通常是 mcp "args": ["run"] // 启动命令的参数,这里是运行 mcp 服务器 }
配置参数说明:
- 'serverName': 服务器的名称,必须与 'main.py' 中 'FastMCP()' 初始化时指定的名称一致。
- 'command': 启动MCP服务器的命令行指令。通常 'FastMCP' 服务器通过 'mcp' 命令启动。
- 'args': 传递给 'command' 的参数。 'run' 参数指示 'mcp' 运行已安装的服务器。
重要提示:
- 确保你已经设置了 CustomGPT API 密钥和基础 URL 作为环境变量 'CUSTOMGPT_API_KEY' 和 'CUSTOMGPT_BASE_URL'。你需要在运行MCP服务器的环境中设置这些环境变量。
- 你可能需要先安装 'fastmcp' 库 ('pip install fastmcp') 才能使用 'mcp' 命令行工具。
基本使用方法
- 启动MCP服务器:
在安装完成后,使用 'mcp run' 命令启动服务器。确保在启动服务器前已经配置好 CustomGPT 的环境变量。
mcp run - 配置MCP客户端: 将上面提供的服务器配置JSON添加到你的MCP客户端 (例如 Claude 桌面应用) 的MCP服务器配置中。
- 在MCP客户端中使用工具和资源: 一旦客户端成功连接到MCP服务器,你应该能够在客户端界面中看到 "CustomGPT-Integration" 服务器提供的工具 (例如 'stream_to_claude')。根据客户端的具体使用方式,你可以调用这些工具来与CustomGPT集成的Claude模型进行交互。例如,在Claude桌面应用中,你可能会看到一个锤子图标,点击后可以访问和使用这些工具。
信息
分类
AI与计算