使用说明(简要概览,帮助开发者快速理解和落地):

  • 项目简介
    • 这是一个围绕 MCP(Model Context Protocol)构建的后端服务器集合,核心包实现了基于 MCP 的服务器框架、传输适配、工具与技能描述,以及远程和本地配置的加载、合并等能力。设计目标是为 LLM 客户端提供统一的资源访问、工具调用和提示模板渲染入口,并支持多传输协议以适配不同的应用场景。
  • 主要功能点
    • MCP 服务器核心:实现 MCP 的服务器端逻辑,接收并处理来自 LLM 客户端的资源、工具、提示的请求,返回标准化的 JSON-RPC 响应。
    • 资源、工具与提示管理:托管与发现资源、注册并执行工具、渲染和返回 Prompt 模板信息,支持工具冲突命名规范(server__tool、skill__skillName 等)。
    • 多传输协议支持:提供 StdIO、HTTP、SSE 等传输实现,方便嵌入式使用、服务端接入和远程推送。
    • 配置与远程合并:支持本地配置与远程远程配置源的合并,提供缓存机制和安全性校验(如 SSRF 防护、环境变量插值、敏感信息处理)。
    • 工具与技能的前向互操作:DescribeToolsTool、UseToolTool 等工具实现,支持 file-based 技能与提示-based 技能的混合描述和执行路径。
  • 安装步骤
    • 在 Node.js 18+ 环境中获取并安装依赖(仓库内已含各微服务包,可按需安装对应包):
      • 安装核心 MCP 服务端(one-mcp)及相关依赖。
      • 安装并部署所需的传输实现(stdio、http、sse)。
      • 配置相应的 MCP 服务器组(参考下方配置示例)。
  • 服务器配置(配置信息为 JSON,包含 server name、command、args 等)
    • 服务器端启动配置示例(请以 JSON 配置文件形式提供给客户端并确保客户端具备读取该配置的能力;客户端配置示例仅用于理解结构,实际运行需以下 JSON 为准):
    • { "mcpServers": { "scaffold-mcp": { "command": "npx", "args": ["-y", "@agiflowai/scaffold-mcp", "mcp-serve", "--admin-enable"] }, "architect-mcp": { "command": "npx", "args": ["-y", "@agiflowai/architect-mcp", "mcp-serve", "--admin-enable", "--design-pattern-tool", "codex", "--review-tool", "gemini-cli"] }, "style-system": { "command": "npx", "args": ["-y", "@agiflowai/style-system", "mcp-serve"] } } }
    • 说明:
      • 该配置用于 MCP 客户端理解如何启动各个 MCP 服务器实例。实际运行由客户端或部署脚本依据该配置逐一执行相应的启动命令与参数,部署时请确保目标环境已安装相应的 npm 包。
  • 基本使用方法
    • 启动和接入
      • 将上述配置保存为 MCP 配置文件(如 mcp-config.json),在需要的环境中执行相应的启动脚本(如通过管理脚本或容器编排启动各 MCP 服务)。服务器端会以 MCP 兼容的协议对接入的客户端提供服务。
    • 客户端交互
      • 客户端通过 JSON-RPC 向 MCP 服务器发起请求,包含读取资源、调用工具、获取 Prompts 等操作。服务器返回标准的 JSON-RPC 响应或通知,便于 LLM 进行上下文交互和功能调用。
    • 额外注意
      • 为保证安全,请按实际部署环境开启必要的校验与授权逻辑,尤其是跨服务的工具调用、资源访问等行为的权限控制。

信息

分类

开发者工具