使用说明
项目简介
RAT MCP Server (Retrieval Augmented Thinking MCP Server) 是一个实现了 Model Context Protocol (MCP) 的服务器,旨在为语言模型客户端提供上下文信息和工具能力。该服务器的核心特色是采用了双阶段处理:首先使用 DeepSeek R1 模型进行推理,然后利用 Claude 3.5 Sonnet 模型结合 DeepSeek 的推理结果生成最终回复,所有模型调用均通过 OpenRouter API 完成。
主要功能点
- 双阶段智能处理: 利用 DeepSeek R1 模型进行初步推理,增强理解和分析能力;再由 Claude 3.5 Sonnet 模型生成高质量、全面的回复。
- 智能对话管理: 能够检测和管理多个并发对话,自动过滤结束的对话,并支持手动清除对话上下文。
- 优化的模型参数: 针对 DeepSeek 和 Claude 模型设置了不同的上下文长度限制和推荐参数,以达到最佳性能。
- 工具化调用: 提供了 'generate_response' 和 'check_response_status' 两个工具,方便客户端发起请求和查询任务状态。
- 支持 Cline 等 MCP 客户端: 可以方便地集成到 Cline 等支持 MCP 协议的客户端中使用。
安装步骤
- 克隆仓库:
git clone https://github.com/newideas99/RAT-retrieval-augmented-thinking-MCP.git cd RAT-retrieval-augmented-thinking-MCP - 安装依赖:
确保已安装 Node.js 和 npm,然后运行:
npm install - 配置环境变量:
在项目根目录下创建 '.env' 文件,并填入你的 OpenRouter API 密钥。你也可以根据需要修改默认的模型配置。
OPENROUTER_API_KEY=your_openrouter_api_key_here DEEPSEEK_MODEL=deepseek/deepseek-r1 CLAUDE_MODEL=anthropic/claude-3.5-sonnet:beta - 构建项目:
运行构建命令:
npm run build
服务器配置 (Cline MCP 客户端)
要将 RAT MCP Server 集成到 Cline (Claude Desktop in VSCode) 等 MCP 客户端,你需要配置客户端的 MCP 服务器设置。以下是 Cline 客户端的配置示例,你需要将 'command' 和 'args' 路径替换为你实际的安装路径,并将 'OPENROUTER_API_KEY' 替换为你的密钥(虽然在 '.env' 文件中已配置,但 Cline 客户端配置中也需要一份):
{ "mcpServers": { "deepseek-claude": { "command": "/path/to/node", "args": ["/path/to/RAT-retrieval-augmented-thinking-MCP/build/index.js"], "env": { "OPENROUTER_API_KEY": "your_key_here" }, "disabled": false, "autoApprove": [] } } }
配置参数说明:
- '"deepseek-claude"': 服务器名称,可以自定义。
- '"command"': Node.js 的可执行文件路径,通常为 '/path/to/node' 或直接使用 'node' (如果 node 已添加到系统 PATH 环境变量)。
- '"args"': 启动服务器的参数,指向构建后的 'index.js' 文件路径。
- '"env"': 环境变量配置,必须 包含 'OPENROUTER_API_KEY',用于访问 OpenRouter API。
- '"disabled": false': 确保服务器启用。
- '"autoApprove": []': 自动批准列表,默认为空。
请注意: '/path/to/node' 和 '/path/to/RAT-retrieval-augmented-thinking-MCP' 需要替换为你的实际路径。 'your_key_here' 需要替换为你的 OpenRouter API 密钥。
基本使用方法
配置完成后,在 Cline 客户端中选择 "deepseek-claude" 服务器。你可以使用 'generate_response' 工具来提问,例如:
- 发起提问: 使用 'generate_response' 工具,输入 'prompt' 参数为你想要提出的问题,例如 '"What is quantum computing?"'。你可以根据需要设置 'showReasoning' (是否显示 DeepSeek 的推理过程), 'clearContext' (是否清除上下文), 'includeHistory' (是否包含 Cline 历史记录) 等可选参数。
- 获取任务ID: 'generate_response' 工具会立即返回一个包含 'taskId' 的 JSON 响应,例如 '{"taskId": "uuid-here"}'。
- 查询任务状态: 使用 'check_response_status' 工具,输入上一步获取的 'taskId' 参数,可以轮询查询任务状态。状态会依次经历 'pending' -> 'reasoning' -> 'responding' -> 'complete'。
- 获取最终回复: 当 'check_response_status' 返回的状态为 'complete' 时,响应中会包含最终的回复内容 ( 'response' ) 以及可能的推理过程 (如果 'showReasoning' 设置为 true)。
通过以上步骤,你就可以利用 RAT MCP Server 提供的 DeepSeek 推理和 Claude 回复能力,在 Cline 等客户端中进行增强的 AI 对话。
信息
分类
AI与计算