Deepseek R1 Reasoner MCP Server 使用说明

项目简介

Deepseek R1 Reasoner MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,旨在为本地运行的 LLM 客户端提供强大的推理和规划能力。它利用 Deepseek R1 模型作为推理引擎,并可以通过 Ollama 在本地运行,无需依赖远程模型服务。此服务器提供了一个名为 "reasoner" 的工具,LLM 客户端可以调用该工具来获取任务或上下文的规划建议。

主要功能点

  • 推理规划工具: 提供 "reasoner" 工具,帮助 LLM 客户端进行任务分解、步骤规划和问题分析,尤其适用于复杂任务的启动阶段。
  • 本地模型支持: 基于 Ollama 运行 Deepseek R1 模型,所有计算都在本地进行,保护数据隐私并提高响应速度。
  • MCP 标准协议: 遵循 MCP 协议标准,易于与各种 MCP 客户端集成,实现即插即用的上下文服务。
  • 简单易用: 通过简单的命令行即可启动服务器,配置和使用都非常便捷。

安装步骤

  1. 安装 Node.js 和 npm: 确保您的系统已安装 Node.js 和 npm (Node 包管理器)。
  2. 安装 deepseek-reasoner-mcp: 打开终端,运行以下命令全局安装 'deepseek-reasoner-mcp' 包:
    npm install -g deepseek-reasoner-mcp
    或者使用 'npx' 直接运行,无需全局安装。
  3. 安装并运行 Ollama: 确保已安装 Ollama 并成功运行,Deepseek R1 Reasoner MCP Server 依赖 Ollama 提供模型服务。请参考 Ollama 官方文档 (https://ollama.com/) 安装和配置 Ollama,并确保 Deepseek R1 模型已在 Ollama 中可用 (例如,通过 'ollama pull deepseek-r1' 命令拉取模型)。
  4. 验证 Ollama 连接: 首次运行服务器时,会自动测试与 'http://localhost:11434/api/version' 的 Ollama 连接。如果连接失败,请检查 Ollama 是否正在运行并且端口是否正确。

服务器配置

MCP 客户端需要以下 JSON 格式的配置信息来连接 Deepseek R1 Reasoner MCP Server。请将以下配置添加到您的 MCP 客户端配置中:

{
  "serverName": "deepseek-reasoner-mcp",  // MCP 服务器名称,用于标识和管理连接
  "command": "npx",                     // 启动服务器的命令,这里使用 npx 运行 npm 包
  "args": [                             // 启动参数
    "deepseek-reasoner-mcp"             // 运行 deepseek-reasoner-mcp 包
  ]
}

配置参数说明:

  • 'serverName': 自定义服务器名称,例如 "deepseek-reasoner-mcp-local"。
  • 'command': 固定为 '"npx"',用于执行 npm 包。
  • 'args': 包含一个元素 '"deepseek-reasoner-mcp"',指定要运行的 npm 包名称。

注意: 此配置假设 Ollama 服务运行在 'http://localhost:11434'。如果您的 Ollama 服务地址或端口不同,此 MCP 服务器代码需要进行相应的修改才能连接到您的 Ollama 服务。但默认配置下,客户端无需关心 Ollama 的配置,只需要配置 MCP 服务器的启动命令即可。

基本使用方法

  1. 启动 MCP 服务器: 在终端中运行以下命令启动 Deepseek R1 Reasoner MCP Server:

    npx -y deepseek-reasoner-mcp

    或者,如果您全局安装了 'deepseek-reasoner-mcp',可以直接运行:

    deepseek-reasoner-mcp

    服务器成功启动后,将在终端输出 "Reasoner MCP Server running with ollama on stdio"。

  2. 配置 MCP 客户端: 根据您的 MCP 客户端软件的使用说明,配置上述提供的服务器连接信息。

  3. 调用 "reasoner" 工具: 在您的 LLM 客户端中,当需要进行任务规划或推理时,可以调用名为 "reasoner" 的工具。调用时需要提供 'context' 参数,描述您希望进行规划的任务或上下文。例如,如果您想让模型为您规划一个旅行计划,您可以将 'context' 设置为 "Plan a 3-day trip to Tokyo"。

  4. 接收推理结果: 服务器将调用 Deepseek R1 模型进行推理,并将生成的规划建议以文本形式返回给 LLM 客户端。客户端可以解析返回的文本内容,并将其用于后续的决策或操作。

示例调用 (假设使用 MCP 客户端 SDK):

// 假设 client 是已连接到 MCP 服务器的客户端实例
const response = await client.callTool({
  tool_call: {
    name: "reasoner",
    arguments: {
      context: "Help me plan a study schedule for my upcoming exams."
    }
  }
});

if (response.tool_call_result) {
  const reasoningResult = response.tool_call_result.content[0].text;
  console.log("Reasoning Result:", reasoningResult);
}

通过以上步骤,您就可以成功使用 Deepseek R1 Reasoner MCP Server 为您的本地 LLM 应用提供强大的推理和规划能力。

信息

分类

AI与计算