使用说明(Markdown 格式)

  • 项目简介

    • 该仓库实现了一个 MCP 服务器,核心职责是暴露资源、注册工具、并提供可渲染的 Prompt 信息,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用和提示渲染等操作。
  • 主要功能点

    • 资源与数据:通过托管的 toys 数据和文档内容,向客户端提供以资产为单位的上下文信息基础。
    • 工具注册与执行:实现一组 MCP 工具(如 list_docs、get_toys、read_doc_section、describe_loader、dev_commands),用于查询、读取文档以及获取开发指令等。
    • Prompts 渲染:在服务端定义并暴露可渲染的提问/提示模板,便于 LLM 客户端进行上下文对话组合。
    • JSON-RPC 通信:服务器端按 MCP 约定处理请求并返回标准化的 JSON-RPC 响应。
    • 传输协议与会话:当前实现通过标准输入输出(stdio)作为传输,理论上可扩展到其他传输层(如 WebSocket/Server-Sent Events)。
    • 易于扩展:通过 mcp-shared.ts 提供的服务器创建与工具注册入口,便于二次定制工具和数据源。
  • 安装步骤

    • 安装依赖:根据项目所用运行环境选择合适的执行器(如 Bun 或 Node)。仓库中使用的脚本多为 TypeScript 模块,推荐使用 Bun 或等效的 TypeScript 运行环境来直接执行 TypeScript 脚本。
    • 安装并运行 MCP 服务器:
      • 复制仓库代码到本地。
      • 安装依赖(若使用 Bun:bun install;若使用 npm/yarn,请按项目实际依赖执行)。
      • 运行 MCP 服务器脚本(示例,实际环境根据你的运行方式调整):
        • bun run scripts/mcp-server.ts
        • 该命令会启动 MCP 服务器并在规定传输(stdio)下监听与客户端的 JSON-RPC 通信。
  • 服务器配置(JSON 配置,供 MCP 客户端连接使用的说明) 说明:MCP 客户端需要知道服务器的名称、启动命令与参数,以便与 MCP 服务器建立连接。下列示例仅用于描述配置字段,具体执行环境请以实际部署为准。

    • serverName(服务器名称): “stim-webtoys-mcp”
    • command(启动命令): “bun”
    • args(启动参数): [“run”, “scripts/mcp-server.ts”] 说明:服务器在仓库中通过脚本启动,并输出标准 MCP 服务信息。客户端无需直接关心实现细节,只需提供正确的 serverName、启动命令与参数,以便启动并连接。
  • 基本使用方法(简要操作流程)

    1. 启动 MCP 服务器进程:
      • 按上述命令在受控环境中启动,确保服务器正在运行并监听 stdio。
    2. 使用 MCP 客户端连接:
      • 客户端通过 MCP 标准的 JSON-RPC 方式向服务器发送请求,请求包含资源读取、工具调用、文档段落读取等。
    3. 进行工具与数据查询:
      • 调用注册的工具(如 list_docs、get_toys、read_doc_section、describe_loader、dev_commands)来获取文档指针、Toy 元数据、文档段落等信息。
    4. 集成到 LLM 工作流:
      • 将 MCP 返回的内容作为上下文或直接的工具输出融入到你的对话/推理流程中。

信息

分类

AI与计算