使用说明内容(Markdown格式)
-
项目简介
- 该仓库在 GPT4Free 体系中实现了 MCP 服务器端,提供统一的后端服务来托管资源、注册并执行工具、渲染与提供 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,实现对 LLM 的上下文与能力的标准化访问。
- MCP 服务器是 MCP 客户端与服务端之间的桥梁,客户端通过发起 MCP 请求读取资源、执行工具、获取 Prompts 等,服务器负责会话管理、能力声明以及跨传输协议的支持。
-
主要功能点
- 资源与数据访问:托管与管理 Resources,供 LLM 客户端访问与持久化。
- 工具注册与执行:注册 Tools,允许 LLM 调用外部功能并获取结果。
- Prompt 定义与渲染:提供可自定义的 Prompt 模板与渲染能力,支持不同交互模式。
- JSON-RPC 通信:通过 JSON-RPC 接收请求并返回响应,支持读取资源、调用工具、获取 Prompt 等。
- 会话与能力声明:服务端维护会话状态、能力声明,确保对多轮对话的一致性与安全性。
- 多传输协议支持:支持 STDIO、SSE、WebSocket 等传输协议,以适应不同部署场景。
- 安全可扩展性:设计上强调安全、可扩展性,便于接入多提供者与多模型。
-
安装步骤(简要)
- 确保环境满足 Python 3.10+、依赖安装需求。
- 从源码编译或安装依赖后,确保 MCP 相关模块可用。
- 启动 MCP 服务器方式(两种选择):
- 直接执行 MCP 服务入口(推荐)
- g4f mcp
- 或 python -m g4f.mcp
- HTTP 模式(对外暴露 http 接口)
- g4f mcp --http --port 8765
- 可通过 --host 指定监听地址,例如 --host 0.0.0.0
- 直接执行 MCP 服务入口(推荐)
- 启动后,服务器应提供健康检查接口与 MCP 入口点,供 MCP 客户端连接。
-
服务器配置(MCP 客户端需要的配置信息,使用 JSON 表达,描述服务器信息与启动参数)
- 服务器名称(server_name):gpt4free-mcp
- 启动命令(command):python
- 启动参数(args):["-m", "g4f.mcp"]
- 传输模式(transport):http 或 stdio(根据部署选择,HTTP 常用于外部调用,STDIO 常用于嵌入式/容器化集成)
- 监听地址与端口(host、port):
- host: 0.0.0.0
- port: 8765
- 说明:该配置用于 MCP 客户端在连接 MCP 服务器时了解如何启动与连接 MCP 服务端。具体字段含义见上方字段描述,客户端无需包含实现细节,仅需在客户端侧设定连接目标即可。
-
基本使用方法(易于上手)
- 连接与请求:
- 客户端向 MCP 服务器发送 JSON-RPC 请求,包含资源读取、工具调用、Prompts 获取等操作。
- 会话管理:
- MCP 服务器维护会话状态与能力声明,确保跨轮对话的上下文一致性。
- 扩展性与维护:
- 通过插件化的资源、工具与提示模板,可以接入更多提供者与模型,提升上下文服务能力。
- 连接与请求:
-
其他说明
- 该 MCP 服务器实现位于仓库的 MCP 相关模块中,具体实现、MCP 请求/响应格式、工具/资源模型等都围绕 MCP 标准设计,并在 README 提及了相关用法与部署方法。
信息
分类
AI与计算