使用说明

项目简介

World Mini App 文档 MCP 服务器是一个基于 Model Context Protocol (MCP) 的后端服务,旨在为 LLM 应用提供 World Mini App 开发文档的访问能力。通过该服务器,LLM 可以检索相关文档片段或获取完整文档内容,辅助开发者进行 World Mini App 开发。

主要功能点

  • 文档检索工具 (world_mini_app_query_tool): 允许 LLM 根据关键词查询 World Mini App 文档,并返回相关的文档片段作为上下文信息。
  • 完整文档资源 (docs://world-mini-app/full): 提供 World Mini App 文档的完整内容,允许 LLM 获取全部文档信息。

安装步骤

  1. 安装 Python 环境: 确保已安装 Python 3。
  2. 创建并激活虚拟环境: 打开终端,导航到仓库根目录,运行以下命令创建并激活虚拟环境:
    python3 -m venv .venv
    source .venv/bin/activate
  3. 安装依赖: 在虚拟环境中运行以下命令安装项目依赖:
    pip install langchain_community langchain-openai langchain-anthropic scikit-learn bs4 pandas pyarrow matplotlib lxml langgraph "mcp[cli]" tiktoken
  4. 配置 OpenAI API 密钥: 导出 OpenAI API 密钥,用于文档向量库的构建和文档检索:
    export OPENAI_API_KEY="your-openai-api-key"
  5. 构建文档向量库: 运行以下命令构建文档向量数据库,该过程会将 World Mini App 文档下载、分块并向量化存储:
    python3 worldMiniApp-MCP/miniApp_build_docs.py
  6. 运行 MCP 服务器: 运行以下命令启动 MCP 服务器,服务器将通过 stdio 监听 MCP 请求:
    python3 worldMiniApp-MCP/miniApp_mcp.py

服务器配置

MCP 服务器需要配置到 MCP 客户端中才能使用,以下为配置示例 (JSON 格式):

{
  "mcpServers": {
    "world-mini-app-docs": { // 服务器名称,可自定义,用于在客户端中标识该服务器
      "command": "/your-absolute-path-to-repo-folder/WorldMiniApp_MCP/.venv/bin/python", // Python 解释器路径,请替换为你的 Python 虚拟环境中的解释器绝对路径
      "args": [
        "/your-absolute-path-to-repo-folder/WorldMiniApp_MCP/worldMiniApp-MCP/miniApp_mcp.py" // MCP 服务器启动脚本路径,请替换为你的 miniApp_mcp.py 脚本的绝对路径
      ],
      "env": {
        "OPENAI_API_KEY": "sk-xxxxxxxxxxxxxxxxxxxx" // OpenAI API 密钥,请替换为你的 OpenAI API 密钥,如果你的环境变量中已经配置了 OpenAI API 密钥,可以删除此项
      }
    }
  }
}

注意:

  • 请将上述 JSON 配置复制到你的 MCP 客户端 (如 Cursor 编辑器) 的 MCP 服务器配置中。
  • 将 'command' 和 'args' 中的路径替换为你的实际仓库路径和 Python 虚拟环境路径。
  • 'server name' 可以自定义,用于在客户端中引用该服务器。

基本使用方法

  1. 确保 MCP 服务器已成功启动并在后台运行。
  2. 在 MCP 客户端中配置并激活 "world-mini-app-docs" 服务器。
  3. 在客户端中,可以使用 'world_mini_app_query_tool' 工具,输入关于 World Mini App 开发相关的问题或关键词,MCP 服务器将返回相关的文档片段作为上下文信息。
  4. 也可以通过资源 URI 'docs://world-mini-app/full' 访问 World Mini App 的完整文档内容。

信息

分类

开发者工具