项目简介

"Multi-Model AI开发助手MCP服务器" 是一个高性能的后端服务,它实现了Model Context Protocol (MCP)。该服务器通过JSON-RPC与LLM客户端(如VSCode扩展)通信,提供与Anthropic Claude和OpenAI GPT等多种AI模型交互的能力。它支持多种开发辅助工具,例如代码生成、代码审查、会话上下文管理以及本地文件系统探索。

主要功能点

  • 多模型AI集成: 无缝切换和使用Anthropic Claude和OpenAI GPT系列AI模型。
  • 代码生成: 根据自然语言提示生成代码,支持指定编程语言和额外上下文。
  • 代码审查: 对现有代码进行审查,发现潜在问题、提出改进建议,并可聚焦于特定方面(如安全性、性能)。
  • 上下文管理: 允许LLM客户端添加、获取和清除会话上下文,包括文件内容、笔记和元数据,以维持更长和更相关的对话。
  • 文件系统探索: 提供安全的文件和目录枚举工具,帮助AI理解项目结构。
  • JSON-RPC通信: 通过标准JSON-RPC协议与客户端交互,支持标准输入/输出(Stdio)作为传输方式。
  • 凭据管理: 支持从环境变量或系统钥匙串安全加载AI服务提供商的API密钥。

安装步骤

本服务器是仓库中 'multi-model-mcp' 子目录下的一个Rust项目。要安装和构建它,您需要首先安装Rust编译环境。

  1. 克隆仓库: 打开您的终端或命令行工具,执行以下命令克隆GitHub仓库,并进入 'multi-model-mcp' 目录:
    git clone https://github.com/Solutions78/scripts.git
    cd scripts/multi-model-mcp
  2. 安装Rust: 如果您的系统尚未安装Rust编程语言的编译工具链,请通过'rustup'安装。这是官方推荐的安装方式:
    curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh
    source $HOME/.cargo/env
    按照提示完成安装后,您可能需要重启终端或运行 'source $HOME/.cargo/env' 来更新环境变量。
  3. 安装前提条件: 项目提供了一个预安装脚本,它会检查并安装构建Rust项目所需的通用系统工具,例如Linux系统上的'build-essential'包或macOS上的Xcode命令行工具。
    ./install-prerequisites.sh
  4. 构建服务器: 运行构建脚本来编译Rust服务器。此过程将生成一个可执行文件:
    ./build.sh
    构建成功后,服务器的可执行文件通常位于 'multi-model-mcp/mcp-server/target/release/multi-model-mcp'。

服务器配置

MCP服务器是为MCP客户端提供服务的后端。MCP客户端需要知道如何启动这个服务器并与其建立通信。以下是一个示例配置信息,用于在MCP客户端中设置此服务器。MCP客户端通常需要一个包含服务器名称、启动命令和参数的JSON结构:

// 这是一个JSON格式的MCP客户端配置示例,用于启动和连接多模型AI助手服务器
{
  "name": "多模型AI助手", // 给这个MCP服务器实例取一个易于识别的名称
  "command": "/path/to/your/scripts/multi-model-mcp/mcp-server/target/release/multi-model-mcp", // 启动服务器可执行文件的绝对路径
  "args": [], // 传递给服务器可执行文件的命令行参数列表,例如添加 "--debug" 可以开启调试日志
  "description": "提供Anthropic和OpenAI多模型AI能力的MCP服务器", // 对服务器功能的简短描述
  // 以下是AI服务提供商的API密钥配置,您可以根据需要填写,或者将其设置为环境变量
  "environmentVariables": {
    "ANTHROPIC_API_KEY": "你的Anthropic API密钥", // 替换为你的Anthropic API密钥
    "OPENAI_API_KEY": "你的OpenAI API密钥" // 替换为你的OpenAI API密钥
  },
  "notes": [
    "请务必将 'command' 字段中的 '/path/to/your/scripts/multi-model-mcp' 替换为你的 'Solutions78/scripts' 仓库在你本地文件系统中的**绝对路径**。",
    "API密钥也可以存储在系统钥匙串中或作为系统环境变量,详情请参考项目README文件了解更安全的凭据管理方式。",
    "如果需要开启服务器的调试日志输出,可以在 'args' 数组中添加一个字符串元素 \"--debug\"。"
  ]
}

请注意:

  • 您需要将上述配置中的 'command' 路径替换为实际的服务器可执行文件的绝对路径。
  • 'environmentVariables' 部分提供了配置API密钥的示例。您可以将实际密钥直接填入,或者选择通过系统环境变量或系统钥匙串(推荐)的方式进行设置,具体取决于您的MCP客户端如何管理凭据。

基本使用方法

  1. 在MCP客户端中配置: 按照上述“服务器配置”示例,将服务器信息添加到您选择的MCP客户端(例如VSCode的Continue扩展或其他支持MCP协议的LLM客户端)中。
  2. 启动与连接: MCP客户端会在您开始使用时,自动在后台启动并连接到此服务器。
  3. 与AI互动: 通过MCP客户端的用户界面(例如聊天窗口或侧边栏),您可以:
    • 选择希望使用的AI模型(如Claude或GPT)。
    • 输入自然语言提示,请求AI进行代码生成、代码审查等操作。
    • MCP客户端会通过JSON-RPC协议将您的请求发送给本服务器,本服务器将调用相应的工具,并把AI模型的响应返回给客户端。
  4. 管理会话: 在与AI交互过程中,本服务器的上下文管理功能有助于维护对话的连贯性,使AI能够更好地理解您的需求和项目背景。
  5. 查看操作历史: 许多MCP客户端会提供一个仪表盘或历史记录功能,您可以从中查看所有执行过的工具调用、其状态、使用的AI模型以及结果摘要。

信息

分类

开发者工具