使用说明

项目简介

RAT MCP Server (Retrieval Augmented Thinking MCP Server) 是一个实现了 Model Context Protocol (MCP) 的服务器,旨在为语言模型客户端提供上下文信息和工具能力。该服务器的核心特色是采用了双阶段处理:首先使用 DeepSeek R1 模型进行推理,然后利用 Claude 3.5 Sonnet 模型结合 DeepSeek 的推理结果生成最终回复,所有模型调用均通过 OpenRouter API 完成。

主要功能点

  • 双阶段智能处理: 利用 DeepSeek R1 模型进行初步推理,增强理解和分析能力;再由 Claude 3.5 Sonnet 模型生成高质量、全面的回复。
  • 智能对话管理: 能够检测和管理多个并发对话,自动过滤结束的对话,并支持手动清除对话上下文。
  • 优化的模型参数: 针对 DeepSeek 和 Claude 模型设置了不同的上下文长度限制和推荐参数,以达到最佳性能。
  • 工具化调用: 提供了 'generate_response' 和 'check_response_status' 两个工具,方便客户端发起请求和查询任务状态。
  • 支持 Cline 等 MCP 客户端: 可以方便地集成到 Cline 等支持 MCP 协议的客户端中使用。

安装步骤

  1. 克隆仓库:
    git clone https://github.com/newideas99/RAT-retrieval-augmented-thinking-MCP.git
    cd RAT-retrieval-augmented-thinking-MCP
  2. 安装依赖: 确保已安装 Node.js 和 npm,然后运行:
    npm install
  3. 配置环境变量: 在项目根目录下创建 '.env' 文件,并填入你的 OpenRouter API 密钥。你也可以根据需要修改默认的模型配置。
    OPENROUTER_API_KEY=your_openrouter_api_key_here
    DEEPSEEK_MODEL=deepseek/deepseek-r1
    CLAUDE_MODEL=anthropic/claude-3.5-sonnet:beta
  4. 构建项目: 运行构建命令:
    npm run build

服务器配置 (Cline MCP 客户端)

要将 RAT MCP Server 集成到 Cline (Claude Desktop in VSCode) 等 MCP 客户端,你需要配置客户端的 MCP 服务器设置。以下是 Cline 客户端的配置示例,你需要将 'command' 和 'args' 路径替换为你实际的安装路径,并将 'OPENROUTER_API_KEY' 替换为你的密钥(虽然在 '.env' 文件中已配置,但 Cline 客户端配置中也需要一份):

{
  "mcpServers": {
    "deepseek-claude": {
      "command": "/path/to/node",
      "args": ["/path/to/RAT-retrieval-augmented-thinking-MCP/build/index.js"],
      "env": {
        "OPENROUTER_API_KEY": "your_key_here"
      },
      "disabled": false,
      "autoApprove": []
    }
  }
}

配置参数说明:

  • '"deepseek-claude"': 服务器名称,可以自定义。
  • '"command"': Node.js 的可执行文件路径,通常为 '/path/to/node' 或直接使用 'node' (如果 node 已添加到系统 PATH 环境变量)。
  • '"args"': 启动服务器的参数,指向构建后的 'index.js' 文件路径。
  • '"env"': 环境变量配置,必须 包含 'OPENROUTER_API_KEY',用于访问 OpenRouter API。
  • '"disabled": false': 确保服务器启用。
  • '"autoApprove": []': 自动批准列表,默认为空。

请注意: '/path/to/node' 和 '/path/to/RAT-retrieval-augmented-thinking-MCP' 需要替换为你的实际路径。 'your_key_here' 需要替换为你的 OpenRouter API 密钥。

基本使用方法

配置完成后,在 Cline 客户端中选择 "deepseek-claude" 服务器。你可以使用 'generate_response' 工具来提问,例如:

  1. 发起提问: 使用 'generate_response' 工具,输入 'prompt' 参数为你想要提出的问题,例如 '"What is quantum computing?"'。你可以根据需要设置 'showReasoning' (是否显示 DeepSeek 的推理过程), 'clearContext' (是否清除上下文), 'includeHistory' (是否包含 Cline 历史记录) 等可选参数。
  2. 获取任务ID: 'generate_response' 工具会立即返回一个包含 'taskId' 的 JSON 响应,例如 '{"taskId": "uuid-here"}'。
  3. 查询任务状态: 使用 'check_response_status' 工具,输入上一步获取的 'taskId' 参数,可以轮询查询任务状态。状态会依次经历 'pending' -> 'reasoning' -> 'responding' -> 'complete'。
  4. 获取最终回复: 当 'check_response_status' 返回的状态为 'complete' 时,响应中会包含最终的回复内容 ( 'response' ) 以及可能的推理过程 (如果 'showReasoning' 设置为 true)。

通过以上步骤,你就可以利用 RAT MCP Server 提供的 DeepSeek 推理和 Claude 回复能力,在 Cline 等客户端中进行增强的 AI 对话。

信息

分类

AI与计算