使用说明
项目简介
Base Builder MCP 是一个基于 Model Context Protocol (MCP) 的服务器实现,专注于为开发者提供 Base 区块链的官方文档 (Base Docs) 访问能力。通过集成此 MCP 服务器,LLM 客户端可以理解用户关于在 Base 上构建应用的需求,并利用服务器提供的工具检索和获取相关的文档指南,从而更有效地辅助用户进行开发工作。
主要功能点
- 文档检索与访问: 提供 'BuildOnBase' 工具,允许 LLM 客户端根据用户意图,从 Base Docs 中检索并获取指定的开发指南。
- 可选的 OpenAI 辅助处理: 支持配置 OpenAI API 密钥,以便服务器在获取文档内容后,可选地使用 GPT-4o-mini 模型将指南内容转换为结构化的 JSON 格式,方便 LLM 客户端进一步解析和利用。
- 代码测试工具: 提供 'testAgentResponse' 工具,允许开发者测试 LLM 客户端生成的代码片段,并获取 OpenAI 的评估结果。
- 易于集成: 提供详细的 Cursor 和 Claude Desktop 集成配置指南,方便用户快速将此 MCP 服务器添加到现有的 LLM 工作流中。
安装步骤
-
克隆仓库:
git clone https://github.com/youssefea/base-builder-mcp cd base-builder-mcp -
安装依赖并构建:
npm install npx tsc -
(可选) 配置 OpenAI API 密钥: 如果希望启用 OpenAI 的文档处理功能,请在 '.env' 文件中添加你的 OpenAI API 密钥:
echo "OPENAI_API_KEY=your_api_key_here" >> .env注意: OpenAI 密钥是可选的,但建议配置,以获得更结构化的文档内容。
服务器配置
要将 Base Builder MCP 服务器配置到 MCP 客户端(例如 Cursor 或 Claude),你需要提供以下 JSON 配置信息。请根据你的实际仓库克隆路径修改 'args' 中的路径。
{ "mcpServers": { "base-builder-mcp": { "command": "node", "args": ["/PATH_WHERE_REPO_IS_CLONED/base-builder-mcp/build/index.js"], "env": { "OPENAI_API_KEY": "" // 可选: OpenAI API 密钥,用于增强文档处理能力 }, "disabled": false, "autoApprove": [] } } }
- 'server name': 'base-builder-mcp' - 服务器的名称,用于在客户端配置中引用。
- 'command': 'node' - 启动服务器的命令,这里使用 Node.js 运行时。
- 'args': '["/PATH_WHERE_REPO_IS_CLONED/base-builder-mcp/build/index.js"]' - 启动命令的参数,指向服务器入口文件 'index.js' 的构建后路径。 请务必将 '/PATH_WHERE_REPO_IS_CLONED' 替换为你克隆仓库的实际本地路径。
- 'env': '{ "OPENAI_API_KEY": "" }' - 环境变量配置,用于传递 OpenAI API 密钥(可选)。如果不需要 OpenAI 功能,可以留空。
- 'disabled': 'false' - 设置为 'false' 表示启用该 MCP 服务器。
- 'autoApprove': '[]' - 自动批准的工具列表,默认为空。
将以上 JSON 配置添加到你的 MCP 客户端的配置文件中。具体位置请参考你使用的客户端的 MCP 文档,例如 Cursor 客户端的 '~/.cursor/mcp.json' 或项目 '.cursor/mcp.json',以及 Claude Desktop 客户端的配置文件路径。
基本使用方法
配置完成后,在你的 MCP 客户端中,当用户提出与 "build on Base" 相关的请求时,例如 "I want to build on Base",客户端应该能够识别并调用 Base Builder MCP 服务器提供的 'BuildOnBase' 工具。根据用户更具体的需求,服务器会返回 Base Docs 中相关的文档指南内容。
例如,用户可以说:
"我想了解如何在 Base 上部署智能合约"
客户端可能会调用 'BuildOnBase' 工具,并根据关键词 "智能合约" 和 "部署" 尝试在 Base Docs 中找到相关的指南,并将内容返回给用户。
你也可以使用 'testAgentResponse' 工具来测试 LLM 生成的代码,例如:
"请测试以下代码:\n\n
"javascript\n console.log('Hello, world!'); \n
客户端可能会将代码发送到 'testAgentResponse' 工具,并返回 OpenAI 对代码的评估结果。
信息
分类
开发者工具