使用说明

项目简介

本项目实现了一个基于 Model Context Protocol (MCP) 的服务器,它巧妙地结合了 DeepSeek R1 的强大推理能力和 Claude 3.5 Sonnet 卓越的文本生成能力。通过 OpenRouter 统一 API 访问这两个模型,该服务器旨在提供更智能、更具洞察力的 LLM 服务。其核心思想是先利用 DeepSeek R1 进行深入的思考和推理,然后将推理结果融入 Claude 3.5 Sonnet 的上下文中,最终生成高质量的回复。

主要功能点

  • 双阶段智能处理:
    • DeepSeek 推理: 利用 DeepSeek R1 模型进行初步的 reasoning (推理) 过程,模型上下文窗口为 50k 字符。
    • Claude 回复: 使用 Claude 3.5 Sonnet 模型生成最终的 response (回复),模型上下文窗口高达 600k 字符。
    • OpenRouter API: 统一通过 OpenRouter API 访问 DeepSeek 和 Claude 模型。
    • 推理注入: 将 DeepSeek 的推理结果注入到 Claude 的上下文中,提升回复质量。
  • 智能对话管理:
    • 自动会话检测: 通过文件修改时间智能检测活跃对话。
    • 多并发支持: 支持同时处理多个对话请求。
    • 自动过滤: 自动排除已结束的对话,保持上下文清洁。
    • 上下文清除: 支持手动清除对话上下文,从零开始新的对话。
  • 参数优化:
    • 模型专属上下文限制: 针对 DeepSeek 和 Claude 模型设定了不同的上下文长度限制,以优化性能。
    • 推荐参数设置: 预设了温度 (temperature)、top_p、重复惩罚 (repetition_penalty) 等参数的最佳实践值,用户可根据需要调整。

安装步骤

  1. 克隆仓库
    git clone https://github.com/newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP.git
    cd Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP
  2. 安装依赖
    npm install
  3. 配置环境变量 创建 '.env' 文件,并填入你的 OpenRouter API 密钥。
    OPENROUTER_API_KEY=your_openrouter_api_key_here
  4. 构建服务器
    npm run build

服务器配置

本 MCP 服务器主要与 MCP 客户端(如 Cline)配合使用。您需要在 MCP 客户端中配置服务器的启动信息,以便客户端可以连接并调用服务器提供的工具。以下是 Cline 客户端的 MCP 服务器配置示例 (JSON 格式):

{
  "mcpServers": {
    "deepseek-claude": {  // 服务器名称,您可以自定义
      "command": "/path/to/node",  // Node.js 解释器路径,请替换为您的实际路径,例如 /usr/bin/node
      "args": ["/path/to/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP/build/index.js"], // 服务器启动脚本路径,请替换为您的实际路径
      "env": {
        "OPENROUTER_API_KEY": "your_key_here" // OpenRouter API 密钥,也可以在 .env 文件中配置
      },
      "disabled": false, // 设置为 false 启用该服务器
      "autoApprove": [] // 自动批准的工具列表,默认为空
    }
  }
}

请注意:

  • '/path/to/node' 需要替换为您的 Node.js 解释器的实际路径。您可以使用命令 'which node' 在终端中查找。
  • '/path/to/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP' 需要替换为您克隆仓库的实际本地路径。
  • 'your_key_here' 需要替换为您在 OpenRouter 申请的 API 密钥。

基本使用方法

  1. 启动 MCP 服务器 在项目根目录下,执行命令 'node build/index.js' 启动服务器。服务器将运行在 stdio (标准输入输出) 模式下,等待 MCP 客户端的连接和请求。
  2. 配置 MCP 客户端 根据您的 MCP 客户端(例如 Cline)的配置方法,将上述 服务器配置 信息填入客户端的 MCP 服务器设置中。确保配置中的路径和 API 密钥正确无误。
  3. 使用 'generate_response' 工具 在 MCP 客户端中,您可以使用 'generate_response' 工具向服务器发送请求,进行对话或提问。该工具接受以下参数:
    • 'prompt' (必填): 用户提出的问题或指令。
    • 'showReasoning' (可选): 布尔值,指示是否在回复中显示 DeepSeek 的推理过程,默认为 'false' (不显示)。
    • 'clearContext' (可选): 布尔值,指示是否在本次请求前清除对话上下文历史,默认为 'false' (不清除)。
    • 'includeHistory' (可选): 布尔值,指示是否包含 Cline 的对话历史作为上下文,默认为 'true' (包含)。
  4. 使用 'check_response_status' 工具 由于回复生成过程可能较长,'generate_response' 工具会立即返回一个 'taskId'。您可以使用 'check_response_status' 工具,并传入 'taskId' 来轮询查询任务状态,直到任务完成 ('status: complete'),并获取最终的回复内容。

示例 (Cline 客户端中使用 'generate_response' 和 'check_response_status' 工具) 请参考仓库 README.md 中的 "Example usage in Cline" 部分。

信息

分类

AI与计算