OpenFang MCP 服务器
使用说明
-
项目简介
- OpenFang 开源项目中的 MCP 服务器实现,负责以标准化方式向 LLM 客户端提供资源、工具以及提示模板等上下文与功能。核心职责包括托管和管理资源、注册与执行工具、定义和渲染 Prompt 模板,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议的接入能力。
- MCP 服务器是该 Agent OS 架构中的关键后端组件之一,配合其他模块(资源、工具、提示、A2A、内存、组件化工具集)共同实现对 LLM 客户端的上下文服务。
-
主要功能点
- 资源与数据访问(Resources):托管、检索与管理与上下文相关的外部数据和内部资源。
- 工具注册与执行(Tools):注册可调用的外部工具,支持 LLM 通过 MCP 调用外部功能。
- 提示模板定义与渲染(Prompts):定义系统提示、Prompt 模板以及运行时注入的上下文,支持可定制的 LLM 交互模式。
- JSON-RPC 通信协议:服务器端通过 JSON-RPC 接收客户端请求并返回标准的 JSON-RPC 响应。
- 会话与能力声明:管理会话、能力清单、以及对资源和工具的权限控制。
- 多传输协议支持:为 LLM 客户端提供更灵活的传输通道(如 STDIO/SSE/WebSocket 等)以便集成到不同环境中。
- 服务器端稳定性与扩展性设计:模块化内核、RBAC、审计、以及可扩展的工具与资源生态。
-
安装与运行(简要)
- 在本仓库的工作区中进行构建与运行:按照项目根目录的工作流编译和运行相应的运行时组件,MCP 服务器作为运行时的一部分启动并对外提供服务接口。
- MCP 客户端连接:MCP 客户端需要提供服务器的启动信息以建立连接,通常通过 JSON-RPC 的请求/响应进行交互。
-
服务器配置(MCP 客户端需要的最小信息) 下面给出一个简化的 JSON 配置示例,描述 MCP 服务器的必要连接信息。该配置仅用于客户端建立连接时的参数指引,具体实现细节以仓库提供的运行时组件为准。
{ "server_name": "openfang-mcp-server", "command": "openfang", "args": ["mcp-server"], "notes": "OpenFang 的 MCP 服务器作为运行时内嵌服务启动,客户端通过该服务器进行资源、工具和提示模板的请求与交互。" }
使用步骤要点
-
启动与连接
- 先启动 OpenFang 的运行时/内核组件,MCP 服务器在运行时启动后对外暴露 JSON-RPC 接口。
- MCP 客户端通过网络或标准输入输出等传输通道,按 JSON-RPC 规范发送请求并接收响应。
-
常用交互
- 读取资源:通过 MCP 接口读取/查询可用的资源数据。
- 调用工具:通过 MCP 接口注册和触发工具,LLM 客户端可请求执行外部功能。
- 获取/渲染 Prompt:请求系统提示与模板,LLM 客户端据此进行上下文准备与对话设计。
-
安全与扩展性
- 服务器端实现了会话管理与能力声明,支持多种传输通道以适配不同部署场景。
- 提供可扩展的工具和资源生态,方便集成新的资源类型和工具。
-
基本使用方法(易上手要点)
- 启动 OpenFang 的 MCP 服务器组件(通常与内核/运行时一起启动)。
- 使用 JSON-RPC 客户端连接 MCP 服务器并发出请求,例如读取资源、调用工具、获取 Prompts。
- 通过服务器返回的 JSON-RPC 响应来处理结果,或根据通知机制接收事件通知。
- 如需自定义工具、资源或提示模板,请在服务器端将其注册到 MCP 环境中,客户端即可通过统一接口访问。