Deepseek R1 Reasoner MCP Server 使用说明
项目简介
Deepseek R1 Reasoner MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,旨在为本地运行的 LLM 客户端提供强大的推理和规划能力。它利用 Deepseek R1 模型作为推理引擎,并可以通过 Ollama 在本地运行,无需依赖远程模型服务。此服务器提供了一个名为 "reasoner" 的工具,LLM 客户端可以调用该工具来获取任务或上下文的规划建议。
主要功能点
- 推理规划工具: 提供 "reasoner" 工具,帮助 LLM 客户端进行任务分解、步骤规划和问题分析,尤其适用于复杂任务的启动阶段。
- 本地模型支持: 基于 Ollama 运行 Deepseek R1 模型,所有计算都在本地进行,保护数据隐私并提高响应速度。
- MCP 标准协议: 遵循 MCP 协议标准,易于与各种 MCP 客户端集成,实现即插即用的上下文服务。
- 简单易用: 通过简单的命令行即可启动服务器,配置和使用都非常便捷。
安装步骤
- 安装 Node.js 和 npm: 确保您的系统已安装 Node.js 和 npm (Node 包管理器)。
- 安装 deepseek-reasoner-mcp: 打开终端,运行以下命令全局安装 'deepseek-reasoner-mcp' 包:
或者使用 'npx' 直接运行,无需全局安装。npm install -g deepseek-reasoner-mcp - 安装并运行 Ollama: 确保已安装 Ollama 并成功运行,Deepseek R1 Reasoner MCP Server 依赖 Ollama 提供模型服务。请参考 Ollama 官方文档 (https://ollama.com/) 安装和配置 Ollama,并确保 Deepseek R1 模型已在 Ollama 中可用 (例如,通过 'ollama pull deepseek-r1' 命令拉取模型)。
- 验证 Ollama 连接: 首次运行服务器时,会自动测试与 'http://localhost:11434/api/version' 的 Ollama 连接。如果连接失败,请检查 Ollama 是否正在运行并且端口是否正确。
服务器配置
MCP 客户端需要以下 JSON 格式的配置信息来连接 Deepseek R1 Reasoner MCP Server。请将以下配置添加到您的 MCP 客户端配置中:
{ "serverName": "deepseek-reasoner-mcp", // MCP 服务器名称,用于标识和管理连接 "command": "npx", // 启动服务器的命令,这里使用 npx 运行 npm 包 "args": [ // 启动参数 "deepseek-reasoner-mcp" // 运行 deepseek-reasoner-mcp 包 ] }
配置参数说明:
- 'serverName': 自定义服务器名称,例如 "deepseek-reasoner-mcp-local"。
- 'command': 固定为 '"npx"',用于执行 npm 包。
- 'args': 包含一个元素 '"deepseek-reasoner-mcp"',指定要运行的 npm 包名称。
注意: 此配置假设 Ollama 服务运行在 'http://localhost:11434'。如果您的 Ollama 服务地址或端口不同,此 MCP 服务器代码需要进行相应的修改才能连接到您的 Ollama 服务。但默认配置下,客户端无需关心 Ollama 的配置,只需要配置 MCP 服务器的启动命令即可。
基本使用方法
-
启动 MCP 服务器: 在终端中运行以下命令启动 Deepseek R1 Reasoner MCP Server:
npx -y deepseek-reasoner-mcp或者,如果您全局安装了 'deepseek-reasoner-mcp',可以直接运行:
deepseek-reasoner-mcp服务器成功启动后,将在终端输出 "Reasoner MCP Server running with ollama on stdio"。
-
配置 MCP 客户端: 根据您的 MCP 客户端软件的使用说明,配置上述提供的服务器连接信息。
-
调用 "reasoner" 工具: 在您的 LLM 客户端中,当需要进行任务规划或推理时,可以调用名为 "reasoner" 的工具。调用时需要提供 'context' 参数,描述您希望进行规划的任务或上下文。例如,如果您想让模型为您规划一个旅行计划,您可以将 'context' 设置为 "Plan a 3-day trip to Tokyo"。
-
接收推理结果: 服务器将调用 Deepseek R1 模型进行推理,并将生成的规划建议以文本形式返回给 LLM 客户端。客户端可以解析返回的文本内容,并将其用于后续的决策或操作。
示例调用 (假设使用 MCP 客户端 SDK):
// 假设 client 是已连接到 MCP 服务器的客户端实例 const response = await client.callTool({ tool_call: { name: "reasoner", arguments: { context: "Help me plan a study schedule for my upcoming exams." } } }); if (response.tool_call_result) { const reasoningResult = response.tool_call_result.content[0].text; console.log("Reasoning Result:", reasoningResult); }
通过以上步骤,您就可以成功使用 Deepseek R1 Reasoner MCP Server 为您的本地 LLM 应用提供强大的推理和规划能力。
信息
分类
AI与计算