项目简介
CustomGPT MCP 服务器是一个基于 Model Context Protocol (MCP) 构建的后端服务,旨在为 LLM 客户端(如 Claude Code 或 Claude Web)提供一个统一的接口,以编程方式与 CustomGPT.ai 平台进行交互。它将 CustomGPT 的核心 API 封装为可供 LLM 调用的工具 (Tools),并管理相关资源。
主要功能点
- 智能体管理: 列出、获取详细信息、创建、更新、删除 CustomGPT 智能体,并获取智能体的统计数据和配置。
- 对话管理: 向智能体发送消息,列出、创建、更新和删除对话,以及获取特定对话的消息历史。
- 内容管理: 列出、删除、重新索引智能体的内容页面,管理数据来源(如站点地图),并更新页面元数据。
- 报告与分析: 获取智能体的流量、查询、对话、整体分析及用户智能报告。
- 用户与配置: 获取并更新用户资料,管理账户使用限制,以及获取服务器的配置信息。
- API 密钥验证: 提供工具验证 CustomGPT API 密钥的有效性。
安装步骤
- 克隆仓库:
git clone https://github.com/Poll-The-People/customgpt-mcp.git cd customgpt-mcp - 创建并激活 Python 虚拟环境:
建议使用 Python 3.10 或更高版本。python3.11 -m venv venv source venv/bin/activate # Windows 用户使用:venv\Scripts\activate - 安装依赖:
pip install -r requirements.txt - 配置 API 密钥:
- 复制 '.env.example' 文件为 '.env':'cp .env.example .env'
- 编辑新生成的 '.env' 文件,在其中添加您的 CustomGPT.ai API 密钥:
CUSTOMGPT_API_KEY=您的实际CustomGPT_API_KEY
- 运行服务器:
服务器将在本地启动,等待 MCP 客户端连接。python server.py
服务器配置
此 MCP 服务器设计用于与 MCP 客户端(如 Claude Code)配合使用。您需要将服务器的启动信息添加到 MCP 客户端的配置中。以下是一个示例配置信息,具体路径和环境变量请根据您的实际部署情况调整:
在您的 MCP 客户端(例如 Claude Code)的设置中,通常会有一个 'mcpServers' 的 JSON 配置区域。您可以在其中添加如下信息:
- 服务器名称 ('"customgpt"'): 这是您在客户端中为该 MCP 服务器定义的唯一标识符,可以自定义。
- 启动命令 ('"command"'): 运行 MCP 服务器的程序。在此项目中,通常是 '"python"'。
- 命令参数 ('"args"'): 传递给启动命令的参数列表。在这里,它应该是 'server.py' 脚本的完整路径,例如 '"/path/to/customgpt-mcp/server.py"'。请将 '/path/to/customgpt-mcp/server.py' 替换为 'server.py' 文件的实际绝对路径。
- 环境变量 ('"env"'): 为服务器进程设置的环境变量。例如,'"PYTHONPATH"' 应该设置为项目根目录的路径,以确保 Python 能够找到所有必要的模块。请将 '/path/to/customgpt-mcp' 替换为项目根目录的实际绝对路径。
请根据上述说明在您的 MCP 客户端中配置服务器启动信息,以建立连接。
基本使用方法
配置完成后,您的 LLM 客户端即可通过其 MCP 接口发现并调用此服务器提供的工具。例如:
- 验证 API 密钥: LLM 可能会首先调用 'validate_api_key' 工具来确保与 CustomGPT 平台的连接正常。
- 列出智能体: LLM 可以调用 'list_agents' 工具,获取您的 CustomGPT 账户下的所有智能体列表。
- 与智能体对话: LLM 可以调用 'send_message' 工具,指定 'project_id' 和 'message' 来与特定的 CustomGPT 智能体进行交互。
- 管理内容: LLM 也可以调用 'list_pages' 或 'create_source' 等工具来管理智能体的数据源和内容。
所有这些操作都将通过 MCP 客户端向此服务器发送 JSON-RPC 请求,服务器会执行相应的 CustomGPT API 调用并返回结果给客户端。
信息
分类
AI与计算