OpenFang MCP 服务器

使用说明

  • 项目简介

    • OpenFang 开源项目中的 MCP 服务器实现,负责以标准化方式向 LLM 客户端提供资源、工具以及提示模板等上下文与功能。核心职责包括托管和管理资源、注册与执行工具、定义和渲染 Prompt 模板,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议的接入能力。
    • MCP 服务器是该 Agent OS 架构中的关键后端组件之一,配合其他模块(资源、工具、提示、A2A、内存、组件化工具集)共同实现对 LLM 客户端的上下文服务。
  • 主要功能点

    • 资源与数据访问(Resources):托管、检索与管理与上下文相关的外部数据和内部资源。
    • 工具注册与执行(Tools):注册可调用的外部工具,支持 LLM 通过 MCP 调用外部功能。
    • 提示模板定义与渲染(Prompts):定义系统提示、Prompt 模板以及运行时注入的上下文,支持可定制的 LLM 交互模式。
    • JSON-RPC 通信协议:服务器端通过 JSON-RPC 接收客户端请求并返回标准的 JSON-RPC 响应。
    • 会话与能力声明:管理会话、能力清单、以及对资源和工具的权限控制。
    • 多传输协议支持:为 LLM 客户端提供更灵活的传输通道(如 STDIO/SSE/WebSocket 等)以便集成到不同环境中。
    • 服务器端稳定性与扩展性设计:模块化内核、RBAC、审计、以及可扩展的工具与资源生态。
  • 安装与运行(简要)

    • 在本仓库的工作区中进行构建与运行:按照项目根目录的工作流编译和运行相应的运行时组件,MCP 服务器作为运行时的一部分启动并对外提供服务接口。
    • MCP 客户端连接:MCP 客户端需要提供服务器的启动信息以建立连接,通常通过 JSON-RPC 的请求/响应进行交互。
  • 服务器配置(MCP 客户端需要的最小信息) 下面给出一个简化的 JSON 配置示例,描述 MCP 服务器的必要连接信息。该配置仅用于客户端建立连接时的参数指引,具体实现细节以仓库提供的运行时组件为准。

{ "server_name": "openfang-mcp-server", "command": "openfang", "args": ["mcp-server"], "notes": "OpenFang 的 MCP 服务器作为运行时内嵌服务启动,客户端通过该服务器进行资源、工具和提示模板的请求与交互。" }

使用步骤要点

  • 启动与连接

    • 先启动 OpenFang 的运行时/内核组件,MCP 服务器在运行时启动后对外暴露 JSON-RPC 接口。
    • MCP 客户端通过网络或标准输入输出等传输通道,按 JSON-RPC 规范发送请求并接收响应。
  • 常用交互

    • 读取资源:通过 MCP 接口读取/查询可用的资源数据。
    • 调用工具:通过 MCP 接口注册和触发工具,LLM 客户端可请求执行外部功能。
    • 获取/渲染 Prompt:请求系统提示与模板,LLM 客户端据此进行上下文准备与对话设计。
  • 安全与扩展性

    • 服务器端实现了会话管理与能力声明,支持多种传输通道以适配不同部署场景。
    • 提供可扩展的工具和资源生态,方便集成新的资源类型和工具。
  • 基本使用方法(易上手要点)

    • 启动 OpenFang 的 MCP 服务器组件(通常与内核/运行时一起启动)。
    • 使用 JSON-RPC 客户端连接 MCP 服务器并发出请求,例如读取资源、调用工具、获取 Prompts。
    • 通过服务器返回的 JSON-RPC 响应来处理结果,或根据通知机制接收事件通知。
    • 如需自定义工具、资源或提示模板,请在服务器端将其注册到 MCP 环境中,客户端即可通过统一接口访问。

服务器信息