使用说明

项目简介

本项目是一个示例性质的MCP服务器,它展示了如何使用 'FastMCP' 库将 CustomGPT 的功能集成到任何支持 Model Context Protocol (MCP) 的大型语言模型 (LLM) 客户端,例如 Claude 桌面应用。通过此服务器,LLM客户端可以调用CustomGPT的功能,例如与Claude模型进行对话。

主要功能点

  • 工具 (Tools): 提供 'stream_to_claude' 工具,允许LLM客户端指示服务器通过CustomGPT与Claude模型进行流式对话。这使得LLM客户端能够利用CustomGPT项目配置的知识库和模型能力。
  • 资源 (Resources): 提供 'get_context' 资源,虽然示例中只是一个占位符,但它演示了如何定义和提供上下文数据,这在实际应用中可以扩展为从数据库或知识库中检索信息。
  • MCP协议支持: 使用 'FastMCP' 库,天然支持MCP协议,能够处理MCP客户端的请求并返回符合MCP协议的响应。

安装步骤

  1. 克隆仓库:
    git clone https://github.com/authentichamza/customgpt-mcp.git
    cd customgpt-mcp
  2. 安装依赖: 确保你的Python环境满足要求 (Python 3.10 或更高版本)。然后安装项目依赖:
    pip install -r requirements.txt
  3. 安装MCP服务器: 使用 'mcp' 命令行工具安装 'main.py' 作为 MCP 服务器。 如果你还没有安装 'mcp' 工具,需要先安装 'fastmcp' 库: 'pip install fastmcp'。
    mcp install main.py

服务器配置

MCP客户端需要配置连接到此MCP服务器的信息。以下是一个典型的JSON格式配置示例,你需要将此配置添加到你的MCP客户端中 (例如 Claude 桌面应用的 MCP 配置):

{
  "serverName": "CustomGPT-Integration",  // 服务器名称,在 main.py 中定义
  "command": "mcp",                     // 启动服务器的命令,通常是 mcp
  "args": ["run"]                       // 启动命令的参数,这里是运行 mcp 服务器
}

配置参数说明:

  • 'serverName': 服务器的名称,必须与 'main.py' 中 'FastMCP()' 初始化时指定的名称一致。
  • 'command': 启动MCP服务器的命令行指令。通常 'FastMCP' 服务器通过 'mcp' 命令启动。
  • 'args': 传递给 'command' 的参数。 'run' 参数指示 'mcp' 运行已安装的服务器。

重要提示:

  • 确保你已经设置了 CustomGPT API 密钥和基础 URL 作为环境变量 'CUSTOMGPT_API_KEY' 和 'CUSTOMGPT_BASE_URL'。你需要在运行MCP服务器的环境中设置这些环境变量。
  • 你可能需要先安装 'fastmcp' 库 ('pip install fastmcp') 才能使用 'mcp' 命令行工具。

基本使用方法

  1. 启动MCP服务器: 在安装完成后,使用 'mcp run' 命令启动服务器。确保在启动服务器前已经配置好 CustomGPT 的环境变量。
    mcp run
  2. 配置MCP客户端: 将上面提供的服务器配置JSON添加到你的MCP客户端 (例如 Claude 桌面应用) 的MCP服务器配置中。
  3. 在MCP客户端中使用工具和资源: 一旦客户端成功连接到MCP服务器,你应该能够在客户端界面中看到 "CustomGPT-Integration" 服务器提供的工具 (例如 'stream_to_claude')。根据客户端的具体使用方式,你可以调用这些工具来与CustomGPT集成的Claude模型进行交互。例如,在Claude桌面应用中,你可能会看到一个锤子图标,点击后可以访问和使用这些工具。

信息

分类

AI与计算