使用说明内容(Markdown格式)

  • 项目简介

    • 该仓库在 GPT4Free 体系中实现了 MCP 服务器端,提供统一的后端服务来托管资源、注册并执行工具、渲染与提供 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,实现对 LLM 的上下文与能力的标准化访问。
    • MCP 服务器是 MCP 客户端与服务端之间的桥梁,客户端通过发起 MCP 请求读取资源、执行工具、获取 Prompts 等,服务器负责会话管理、能力声明以及跨传输协议的支持。
  • 主要功能点

    • 资源与数据访问:托管与管理 Resources,供 LLM 客户端访问与持久化。
    • 工具注册与执行:注册 Tools,允许 LLM 调用外部功能并获取结果。
    • Prompt 定义与渲染:提供可自定义的 Prompt 模板与渲染能力,支持不同交互模式。
    • JSON-RPC 通信:通过 JSON-RPC 接收请求并返回响应,支持读取资源、调用工具、获取 Prompt 等。
    • 会话与能力声明:服务端维护会话状态、能力声明,确保对多轮对话的一致性与安全性。
    • 多传输协议支持:支持 STDIO、SSE、WebSocket 等传输协议,以适应不同部署场景。
    • 安全可扩展性:设计上强调安全、可扩展性,便于接入多提供者与多模型。
  • 安装步骤(简要)

    • 确保环境满足 Python 3.10+、依赖安装需求。
    • 从源码编译或安装依赖后,确保 MCP 相关模块可用。
    • 启动 MCP 服务器方式(两种选择):
      • 直接执行 MCP 服务入口(推荐)
        • g4f mcp
        • 或 python -m g4f.mcp
      • HTTP 模式(对外暴露 http 接口)
        • g4f mcp --http --port 8765
        • 可通过 --host 指定监听地址,例如 --host 0.0.0.0
    • 启动后,服务器应提供健康检查接口与 MCP 入口点,供 MCP 客户端连接。
  • 服务器配置(MCP 客户端需要的配置信息,使用 JSON 表达,描述服务器信息与启动参数)

    • 服务器名称(server_name):gpt4free-mcp
    • 启动命令(command):python
    • 启动参数(args):["-m", "g4f.mcp"]
    • 传输模式(transport):http 或 stdio(根据部署选择,HTTP 常用于外部调用,STDIO 常用于嵌入式/容器化集成)
    • 监听地址与端口(host、port):
      • host: 0.0.0.0
      • port: 8765
    • 说明:该配置用于 MCP 客户端在连接 MCP 服务器时了解如何启动与连接 MCP 服务端。具体字段含义见上方字段描述,客户端无需包含实现细节,仅需在客户端侧设定连接目标即可。
  • 基本使用方法(易于上手)

    • 连接与请求:
      • 客户端向 MCP 服务器发送 JSON-RPC 请求,包含资源读取、工具调用、Prompts 获取等操作。
    • 会话管理:
      • MCP 服务器维护会话状态与能力声明,确保跨轮对话的上下文一致性。
    • 扩展性与维护:
      • 通过插件化的资源、工具与提示模板,可以接入更多提供者与模型,提升上下文服务能力。
  • 其他说明

    • 该 MCP 服务器实现位于仓库的 MCP 相关模块中,具体实现、MCP 请求/响应格式、工具/资源模型等都围绕 MCP 标准设计,并在 README 提及了相关用法与部署方法。

信息

分类

AI与计算