项目简介

Deepseek Thinker MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,旨在为支持 MCP 协议的 AI 客户端(例如 Claude Desktop)提供 Deepseek 模型的推理能力。它允许客户端通过标准的 MCP 接口调用 Deepseek 模型进行推理,并获取 Deepseek 模型的思考过程。

主要功能点

  • Deepseek 模型推理:支持通过 OpenAI API 或本地 Ollama 服务器使用 Deepseek 模型进行推理。
  • 获取思考过程:能够捕获并返回 Deepseek 模型的推理过程,帮助用户理解模型的思考逻辑。
  • 双模式支持:支持 OpenAI API 模式和 Ollama 本地模式,灵活适应不同的部署环境。
  • 标准 MCP 协议:基于 MCP 协议构建,易于集成到支持 MCP 协议的 AI 客户端。

安装步骤

  1. 确保已安装 Node.js 和 npm。
  2. 克隆 GitHub 仓库到本地:
    git clone https://github.com/ruixingshi/deepseek-thinker-mcp
  3. 进入项目目录:
    cd deepseek-thinker-mcp
  4. 安装项目依赖:
    npm install
  5. 构建项目:
    npm run build

服务器配置

对于 MCP 客户端 (如 Claude Desktop) 的 'claude_desktop_config.json' 配置文件,你需要添加以下服务器配置信息。

使用 OpenAI API 模式 (默认模式,需要配置 OpenAI API 密钥):

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-thinker-mcp"
      ],
      "env": {
        "API_KEY": "<Your OpenAI API Key>",  // 替换为你的 OpenAI API 密钥
        "BASE_URL": "<Your API Base URL>"    // 替换为你的 API Base URL (通常为 OpenAI API 默认地址,可选)
      }
    }
  }
}

使用 Ollama 本地模式 (需要已安装并运行 Ollama,且可访问 deepseek-r1 模型):

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-thinker-mcp"
      ],
      "env": {
        "USE_OLLAMA": "true" // 设置此环境变量启用 Ollama 模式
      }
    }
  }
}

本地服务器配置 (用于开发或调试,需要指定 'index.js' 文件的绝对路径):

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "node",
      "args": [
        "/your-path/deepseek-thinker-mcp/build/index.js" // 替换为你的项目 build 目录下的 index.js 文件的绝对路径
      ],
      "env": {
        "API_KEY": "<Your API Key>",  // 替换为你的 OpenAI API 密钥 (仅在 OpenAI API 模式下需要)
        "BASE_URL": "<Your Base URL>"    // 替换为你的 API Base URL (通常为 OpenAI API 默认地址,可选,仅在 OpenAI API 模式下需要)
      }
    }
  }
}

基本使用方法

  1. 确保 MCP 服务器已启动 (可以通过 'npx deepseek-thinker-mcp' 或 'node build/index.js' 启动)。
  2. 在支持 MCP 协议的 AI 客户端 (如 Claude Desktop) 中配置并连接到名为 "deepseek-thinker" 的 MCP 服务器。
  3. 在 AI 客户端中,你可以使用名为 'get-deepseek-thinker' 的工具,并提供 'originPrompt' 参数 (用户的原始 prompt) 来调用 Deepseek 模型进行推理。服务器会将 Deepseek 模型的思考过程返回给客户端。

信息

分类

AI与计算