使用说明内容(Markdown格式)

  • 项目简介
    • 该仓库实现了一个基于 Model Context Protocol (MCP) 的后端服务器,专门为 AI Developer Guide 提供上下文信息、工具执行能力以及可渲染的提示模板。核心功能包括托管资源、注册工具、执行工具以及渲染文本型的 Prompt 内容,服务器与客户端通过 JSON-RPC 进行通信,并支持多种传输方式(如 STDIO)。
  • 主要功能点
    • 资源与数据访问:通过工具接口定位并提供内容(如主指南、各类指南等)。
    • 工具注册与执行:列出可用工具并响应工具调用请求,执行如获取主指南、获取具体指南、列出可用指南等操作。
    • Prompt/内容渲染:将从远端 API 获取的内容渲染为文本或结构化文本,以便与 LLM 进行交互。
    • 会话与传输支持:基于 MCP SDK 提供的服务器端实现,默认使用 STDIO 传输,便于在本地与 LLM 环境交互,也可扩展到其他传输通道。
    • 自带 API 客户端:实现了对 AI Developer Guide 内容源的 API 调用能力,包含主指南、各类指南及指南列表等。
  • 安装步骤
    • 进入 MCP 子项目目录并安装依赖:进入 mcp/ai-developer-guide-mcp,执行依赖安装(如 npm install)。
    • 构建与运行:在该子项目中构建后运行 MCP 服务器(通常通过提供的命令行入口启动,示例为 stdin/stdout 传输的服务器)。
    • 运行后,通过 MCP 客户端以 JSON-RPC 形式发送请求,服务器将返回 JSON-RPC 响应。
  • 服务器配置(MCP 客户端需要的配置信息)
    • 服务器名称:ai-developer-guide-mcp(这是服务器在本实现中的名称,客户端需要以此标识进行连接)
    • 启动命令与参数(示例,实际以你的运行环境为准):
      • command: npx
      • args: [-y, @dwmkerr/ai-developer-guide-mcp]
    • 配置示例结构(为 MCP 客户端提供的 JSON 配置信息,非代码块文字描述):
      • 配置名为 ai-developer-guide-mcp,包含如下字段:
        • command: "npx"
        • args: ["-y", "@dwmkerr/ai-developer-guide-mcp"]
    • 注解说明:该配置用于指示 MCP 客户端如何启动并连接到本服务器实现。实际的连接与通信仍通过 MCP 的 JSON-RPC 标准进行。
  • 基本使用方法
    • 启动方式:使用 MCP 客户端启动时,指定服务器名称为 ai-developer-guide-mcp,并提供上述启动命令与参数,系统将通过 STDIO 传输接入。
    • 常用请求类型(在 ListTools、CallTool 的实现中可用):
      • 列出可用工具(ListTools 请求):返回服务器当前支持的工具清单。
      • 调用工具(CallTool 请求):可调用 fetch_main_guide、fetch_guide、list_available_guides 等工具来获取相应内容。
    • 运行后,你可以通过客户端发起 JSON-RPC 请求,服务器将按工具定义执行并返回内容(如文本块、标题、分段等)。

信息

分类

AI与计算