World Mini App 文档 MCP 服务器
使用说明
项目简介
World Mini App 文档 MCP 服务器是一个基于 Model Context Protocol (MCP) 的后端服务,旨在为 LLM 应用提供 World Mini App 开发文档的访问能力。通过该服务器,LLM 可以检索相关文档片段或获取完整文档内容,辅助开发者进行 World Mini App 开发。
主要功能点
- 文档检索工具 (world_mini_app_query_tool): 允许 LLM 根据关键词查询 World Mini App 文档,并返回相关的文档片段作为上下文信息。
- 完整文档资源 (docs://world-mini-app/full): 提供 World Mini App 文档的完整内容,允许 LLM 获取全部文档信息。
安装步骤
- 安装 Python 环境: 确保已安装 Python 3。
- 创建并激活虚拟环境: 打开终端,导航到仓库根目录,运行以下命令创建并激活虚拟环境:
python3 -m venv .venv source .venv/bin/activate - 安装依赖: 在虚拟环境中运行以下命令安装项目依赖:
pip install langchain_community langchain-openai langchain-anthropic scikit-learn bs4 pandas pyarrow matplotlib lxml langgraph "mcp[cli]" tiktoken - 配置 OpenAI API 密钥: 导出 OpenAI API 密钥,用于文档向量库的构建和文档检索:
export OPENAI_API_KEY="your-openai-api-key" - 构建文档向量库: 运行以下命令构建文档向量数据库,该过程会将 World Mini App 文档下载、分块并向量化存储:
python3 worldMiniApp-MCP/miniApp_build_docs.py - 运行 MCP 服务器: 运行以下命令启动 MCP 服务器,服务器将通过 stdio 监听 MCP 请求:
python3 worldMiniApp-MCP/miniApp_mcp.py
服务器配置
MCP 服务器需要配置到 MCP 客户端中才能使用,以下为配置示例 (JSON 格式):
{ "mcpServers": { "world-mini-app-docs": { // 服务器名称,可自定义,用于在客户端中标识该服务器 "command": "/your-absolute-path-to-repo-folder/WorldMiniApp_MCP/.venv/bin/python", // Python 解释器路径,请替换为你的 Python 虚拟环境中的解释器绝对路径 "args": [ "/your-absolute-path-to-repo-folder/WorldMiniApp_MCP/worldMiniApp-MCP/miniApp_mcp.py" // MCP 服务器启动脚本路径,请替换为你的 miniApp_mcp.py 脚本的绝对路径 ], "env": { "OPENAI_API_KEY": "sk-xxxxxxxxxxxxxxxxxxxx" // OpenAI API 密钥,请替换为你的 OpenAI API 密钥,如果你的环境变量中已经配置了 OpenAI API 密钥,可以删除此项 } } } }
注意:
- 请将上述 JSON 配置复制到你的 MCP 客户端 (如 Cursor 编辑器) 的 MCP 服务器配置中。
- 将 'command' 和 'args' 中的路径替换为你的实际仓库路径和 Python 虚拟环境路径。
- 'server name' 可以自定义,用于在客户端中引用该服务器。
基本使用方法
- 确保 MCP 服务器已成功启动并在后台运行。
- 在 MCP 客户端中配置并激活 "world-mini-app-docs" 服务器。
- 在客户端中,可以使用 'world_mini_app_query_tool' 工具,输入关于 World Mini App 开发相关的问题或关键词,MCP 服务器将返回相关的文档片段作为上下文信息。
- 也可以通过资源 URI 'docs://world-mini-app/full' 访问 World Mini App 的完整文档内容。