项目简介
"Multi-Model AI开发助手MCP服务器" 是一个高性能的后端服务,它实现了Model Context Protocol (MCP)。该服务器通过JSON-RPC与LLM客户端(如VSCode扩展)通信,提供与Anthropic Claude和OpenAI GPT等多种AI模型交互的能力。它支持多种开发辅助工具,例如代码生成、代码审查、会话上下文管理以及本地文件系统探索。
主要功能点
- 多模型AI集成: 无缝切换和使用Anthropic Claude和OpenAI GPT系列AI模型。
- 代码生成: 根据自然语言提示生成代码,支持指定编程语言和额外上下文。
- 代码审查: 对现有代码进行审查,发现潜在问题、提出改进建议,并可聚焦于特定方面(如安全性、性能)。
- 上下文管理: 允许LLM客户端添加、获取和清除会话上下文,包括文件内容、笔记和元数据,以维持更长和更相关的对话。
- 文件系统探索: 提供安全的文件和目录枚举工具,帮助AI理解项目结构。
- JSON-RPC通信: 通过标准JSON-RPC协议与客户端交互,支持标准输入/输出(Stdio)作为传输方式。
- 凭据管理: 支持从环境变量或系统钥匙串安全加载AI服务提供商的API密钥。
安装步骤
本服务器是仓库中 'multi-model-mcp' 子目录下的一个Rust项目。要安装和构建它,您需要首先安装Rust编译环境。
- 克隆仓库:
打开您的终端或命令行工具,执行以下命令克隆GitHub仓库,并进入 'multi-model-mcp' 目录:
git clone https://github.com/Solutions78/scripts.git cd scripts/multi-model-mcp - 安装Rust:
如果您的系统尚未安装Rust编程语言的编译工具链,请通过'rustup'安装。这是官方推荐的安装方式:
按照提示完成安装后,您可能需要重启终端或运行 'source $HOME/.cargo/env' 来更新环境变量。curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh source $HOME/.cargo/env - 安装前提条件:
项目提供了一个预安装脚本,它会检查并安装构建Rust项目所需的通用系统工具,例如Linux系统上的'build-essential'包或macOS上的Xcode命令行工具。
./install-prerequisites.sh - 构建服务器:
运行构建脚本来编译Rust服务器。此过程将生成一个可执行文件:
构建成功后,服务器的可执行文件通常位于 'multi-model-mcp/mcp-server/target/release/multi-model-mcp'。./build.sh
服务器配置
MCP服务器是为MCP客户端提供服务的后端。MCP客户端需要知道如何启动这个服务器并与其建立通信。以下是一个示例配置信息,用于在MCP客户端中设置此服务器。MCP客户端通常需要一个包含服务器名称、启动命令和参数的JSON结构:
// 这是一个JSON格式的MCP客户端配置示例,用于启动和连接多模型AI助手服务器 { "name": "多模型AI助手", // 给这个MCP服务器实例取一个易于识别的名称 "command": "/path/to/your/scripts/multi-model-mcp/mcp-server/target/release/multi-model-mcp", // 启动服务器可执行文件的绝对路径 "args": [], // 传递给服务器可执行文件的命令行参数列表,例如添加 "--debug" 可以开启调试日志 "description": "提供Anthropic和OpenAI多模型AI能力的MCP服务器", // 对服务器功能的简短描述 // 以下是AI服务提供商的API密钥配置,您可以根据需要填写,或者将其设置为环境变量 "environmentVariables": { "ANTHROPIC_API_KEY": "你的Anthropic API密钥", // 替换为你的Anthropic API密钥 "OPENAI_API_KEY": "你的OpenAI API密钥" // 替换为你的OpenAI API密钥 }, "notes": [ "请务必将 'command' 字段中的 '/path/to/your/scripts/multi-model-mcp' 替换为你的 'Solutions78/scripts' 仓库在你本地文件系统中的**绝对路径**。", "API密钥也可以存储在系统钥匙串中或作为系统环境变量,详情请参考项目README文件了解更安全的凭据管理方式。", "如果需要开启服务器的调试日志输出,可以在 'args' 数组中添加一个字符串元素 \"--debug\"。" ] }
请注意:
- 您需要将上述配置中的 'command' 路径替换为实际的服务器可执行文件的绝对路径。
- 'environmentVariables' 部分提供了配置API密钥的示例。您可以将实际密钥直接填入,或者选择通过系统环境变量或系统钥匙串(推荐)的方式进行设置,具体取决于您的MCP客户端如何管理凭据。
基本使用方法
- 在MCP客户端中配置: 按照上述“服务器配置”示例,将服务器信息添加到您选择的MCP客户端(例如VSCode的Continue扩展或其他支持MCP协议的LLM客户端)中。
- 启动与连接: MCP客户端会在您开始使用时,自动在后台启动并连接到此服务器。
- 与AI互动: 通过MCP客户端的用户界面(例如聊天窗口或侧边栏),您可以:
- 选择希望使用的AI模型(如Claude或GPT)。
- 输入自然语言提示,请求AI进行代码生成、代码审查等操作。
- MCP客户端会通过JSON-RPC协议将您的请求发送给本服务器,本服务器将调用相应的工具,并把AI模型的响应返回给客户端。
- 管理会话: 在与AI交互过程中,本服务器的上下文管理功能有助于维护对话的连贯性,使AI能够更好地理解您的需求和项目背景。
- 查看操作历史: 许多MCP客户端会提供一个仪表盘或历史记录功能,您可以从中查看所有执行过的工具调用、其状态、使用的AI模型以及结果摘要。
信息
分类
开发者工具