项目简介
Deepseek Thinker MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,旨在为支持 MCP 协议的 AI 客户端(例如 Claude Desktop)提供 Deepseek 模型的推理能力。它允许客户端通过标准的 MCP 接口调用 Deepseek 模型进行推理,并获取 Deepseek 模型的思考过程。
主要功能点
- Deepseek 模型推理:支持通过 OpenAI API 或本地 Ollama 服务器使用 Deepseek 模型进行推理。
- 获取思考过程:能够捕获并返回 Deepseek 模型的推理过程,帮助用户理解模型的思考逻辑。
- 双模式支持:支持 OpenAI API 模式和 Ollama 本地模式,灵活适应不同的部署环境。
- 标准 MCP 协议:基于 MCP 协议构建,易于集成到支持 MCP 协议的 AI 客户端。
安装步骤
- 确保已安装 Node.js 和 npm。
- 克隆 GitHub 仓库到本地:
git clone https://github.com/ruixingshi/deepseek-thinker-mcp - 进入项目目录:
cd deepseek-thinker-mcp - 安装项目依赖:
npm install - 构建项目:
npm run build
服务器配置
对于 MCP 客户端 (如 Claude Desktop) 的 'claude_desktop_config.json' 配置文件,你需要添加以下服务器配置信息。
使用 OpenAI API 模式 (默认模式,需要配置 OpenAI API 密钥):
{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "API_KEY": "<Your OpenAI API Key>", // 替换为你的 OpenAI API 密钥 "BASE_URL": "<Your API Base URL>" // 替换为你的 API Base URL (通常为 OpenAI API 默认地址,可选) } } } }
使用 Ollama 本地模式 (需要已安装并运行 Ollama,且可访问 deepseek-r1 模型):
{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "USE_OLLAMA": "true" // 设置此环境变量启用 Ollama 模式 } } } }
本地服务器配置 (用于开发或调试,需要指定 'index.js' 文件的绝对路径):
{ "mcpServers": { "deepseek-thinker": { "command": "node", "args": [ "/your-path/deepseek-thinker-mcp/build/index.js" // 替换为你的项目 build 目录下的 index.js 文件的绝对路径 ], "env": { "API_KEY": "<Your API Key>", // 替换为你的 OpenAI API 密钥 (仅在 OpenAI API 模式下需要) "BASE_URL": "<Your Base URL>" // 替换为你的 API Base URL (通常为 OpenAI API 默认地址,可选,仅在 OpenAI API 模式下需要) } } } }
基本使用方法
- 确保 MCP 服务器已启动 (可以通过 'npx deepseek-thinker-mcp' 或 'node build/index.js' 启动)。
- 在支持 MCP 协议的 AI 客户端 (如 Claude Desktop) 中配置并连接到名为 "deepseek-thinker" 的 MCP 服务器。
- 在 AI 客户端中,你可以使用名为 'get-deepseek-thinker' 的工具,并提供 'originPrompt' 参数 (用户的原始 prompt) 来调用 Deepseek 模型进行推理。服务器会将 Deepseek 模型的思考过程返回给客户端。
信息
分类
AI与计算