项目简介
NextChat-MCP 是一个基于 NextChat 定制的项目,旨在通过聊天交互的方式,简化 Model Context Protocol (MCP) 服务器的创建和部署流程。用户可以通过与 AI 聊天的方式,定义 MCP 服务器的功能,并一键部署到本地或云端环境。
主要功能点
- 基于聊天的 MCP 服务器创建: 通过简单的聊天对话,即可创建和配置 MCP 服务器。
- 工具自动提取: 从用户对服务器功能的描述中自动提取工具定义。
- 一键部署: 简化部署流程,用户可以一键部署其 MCP 服务器(当前版本为模拟部署)。
- 集成指南: 为各种 AI 系统生成集成指南,方便用户快速连接和使用 MCP 服务器。
- OpenRouter 集成: 利用 OpenRouter 集成多种 LLM 模型,扩展模型选择范围。
安装步骤
-
环境准备: 确保已安装 Node.js 18.0.0 或更高版本,以及 npm 或 yarn。拥有 OpenRouter API 密钥。
-
克隆代码仓库:
git clone https://github.com/vredrick2/NextChat.git cd NextChat -
安装依赖:
npm install # 或 yarn -
配置环境变量: 创建 '.env.local' 文件,并填入以下内容:
# 启用 MCP 功能 ENABLE_MCP=true # OpenRouter API key OPENAI_API_KEY=your_openrouter_api_key # Set OpenRouter as the base URL BASE_URL=https://openrouter.ai/api/v1 # Default model (可以更改为任何 OpenRouter 模型) DEFAULT_MODEL=openrouter/anthropic/claude-3-opus # 隐藏用户 API key 输入,因为我们将使用 OpenRouter HIDE_USER_API_KEY=1 # 启用自定义模型 CUSTOM_MODELS=+openrouter/anthropic/claude-3-opus,+openrouter/anthropic/claude-3-sonnet,+openrouter/google/gemini-pro注意: 请将 'your_openrouter_api_key' 替换为您的 OpenRouter API 密钥。
-
启动开发服务器:
npm run dev # 或 yarn dev -
访问应用: 打开浏览器并访问 'http://localhost:3000'。
服务器配置
MCP 服务器配置主要涉及 'command' 和 'args' 两个参数,用于指定 MCP 服务器的启动命令和参数。以下是一个示例配置,您可以根据实际情况进行调整:
{ "server name": "my-mcp-server", "command": "path/to/your/mcp-server", // MCP 服务器的可执行文件路径,例如: "python", "node", "./mcp-server" 等 "args": [ "--config", "config.json" // 传递给 MCP 服务器的参数,例如配置文件路径,端口号等 ] }
参数说明:
- 'server name': MCP 服务器的名称,用于在客户端进行标识。
- 'command': 启动 MCP 服务器的命令。这应该是 MCP 服务器可执行文件的路径,或者是像 'python' 或 'node' 这样的解释器,如果你的服务器是脚本。
- 'args': 启动命令的参数列表。这些参数将传递给 MCP 服务器,用于配置服务器的行为。例如,你可能需要指定配置文件路径、端口号或其他启动选项。
请注意: 此配置信息为 JSON 格式,用于 MCP 客户端配置连接 MCP 服务器,并非 NextChat-MCP 本身的配置。NextChat-MCP 本身通过 '.env.local' 文件进行配置。
基本使用方法
- 启动 NextChat-MCP 开发服务器后,在浏览器中打开应用。
- 开始新的聊天会话。
- 输入类似 "创建 MCP 服务器" 的指令,与 AI 进行对话。
- 按照系统提示,为您的 MCP 服务器命名并描述其功能。
- 系统将尝试从您的描述中提取工具,并模拟部署 MCP 服务器。
- 您将收到关于如何将您的 MCP 服务器与各种 AI 系统集成的指南。
请注意: 当前版本为模拟部署,实际部署到生产环境需要进一步的配置和开发。
信息
分类
开发者工具