项目简介
DeepSeek MCP Server 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在提升大型语言模型(如 Claude)的推理能力。它利用 DeepSeek R1 模型的先进推理引擎,作为一个独立的推理规划器,Claude 则作为执行器,两者协同工作,使得 Claude 能够处理更复杂的推理任务。
核心思想:
- DeepSeek R1 (大脑): 负责复杂的推理规划,包括制定多步骤逻辑分析策略、构建认知框架、评估置信度和不确定性、监控推理质量以及检测边缘情况和偏差。
- Claude (执行器): 负责执行 DeepSeek R1 规划的推理方案,包括执行结构化分析、实施计划策略、交付最终响应、处理用户交互和管理系统集成。
主要功能点
- 高级推理能力: 支持复杂的多步骤推理任务,提高LLM在需要深度思考和逻辑分析场景下的表现。
- 无缝集成: 通过 MCP 协议与 LLM 客户端(如 Claude Desktop)通信,以标准化的方式提供推理服务。
- 工具注册与执行: 将 DeepSeek R1 的推理能力封装为 MCP 工具 (Tool),允许 LLM 客户端按需调用。
- 易于部署与配置: 提供详细的安装和配置指南,方便用户快速搭建和使用。
安装步骤
-
克隆仓库
git clone https://github.com/moyu6027/deepseek-MCP-server.git cd deepseek-MCP-server -
安装 uv 包管理器
根据您的操作系统选择相应的命令安装 'uv'。
- Windows (PowerShell):
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex" - Mac:
curl -LsSf https://astral.sh/uv/install.sh | sh
- Windows (PowerShell):
-
创建虚拟环境
uv venv source .venv/bin/activate -
安装依赖
uv add "mcp[cli]" httpx -
设置 API 密钥
注册 无问芯穹 获取 'INFINI_API_KEY',并将其写入 '.env' 文件。
echo "INFINI_API_KEY=YOUR_API_KEY_HERE" > .env请将 'YOUR_API_KEY_HERE' 替换为您实际的 API 密钥。
-
安装 MCP 服务器
mcp install server.py -f .env
服务器配置
为了让 MCP 客户端(例如 Claude Desktop)能够连接到 DeepSeek MCP Server,您需要在客户端的配置文件中添加服务器配置信息。以 'claude_desktop_config.json' 为例,您需要配置 'mcpServers' 字段,添加一个名为 'deepseek-mcp' 的服务器配置。
{ "mcpServers": { "deepseek-mcp": { "command": "uv", "args": [ "--directory", "PATH_TO_DEEPSEEK_MCP_SERVER", "run", "server.py" ] } } }
配置参数说明:
- '"deepseek-mcp"': 服务器名称,您可以自定义,客户端通过此名称引用该服务器。
- '"command": "uv"': 启动服务器的命令,这里使用 'uv run' 来运行 Python 脚本。
- '"args"': 启动命令的参数列表。
- '"--directory"': 指定服务器代码所在的目录。
- '"PATH_TO_DEEPSEEK_MCP_SERVER"': 请替换为 DeepSeek MCP Server 仓库在您本地的实际路径。 例如,如果您将仓库克隆到 '/Users/yourname/deepseek-MCP-server',则应替换为 '" /Users/yourname/deepseek-MCP-server"'.
- '"run"': 'uv' 命令的子命令,用于运行 Python 脚本。
- '"server.py"': 要运行的服务器脚本文件名。
请注意: 'PATH_TO_DEEPSEEK_MCP_SERVER' 必须替换为实际的路径,否则客户端将无法找到并启动服务器。 MCP 客户端会读取此配置信息,并根据 'command' 和 'args' 启动 DeepSeek MCP Server。
基本使用方法
-
启动服务器: 当您配置好 Claude Desktop 并启动后,如果配置正确,DeepSeek MCP Server 将会自动启动。您也可以在仓库目录下手动运行以下命令启动服务器:
uv run server.py -
在 Claude 中使用推理工具: 当 Claude 接收到需要高级推理的查询时,它将自动调用 DeepSeek MCP Server 提供的 'reason' 工具进行处理。DeepSeek R1 的推理结果会被包装在 '<ant_thinking>' 标签中返回给 Claude,Claude 会将这些推理信息整合到最终的回复中。
工作流程示例:
- Claude 接收到用户查询。
- Claude 判断查询需要高级推理能力。
- Claude 将查询转发给 DeepSeek MCP Server 的 'reason' 工具。
- DeepSeek MCP Server 调用 DeepSeek R1 进行推理分析。
- DeepSeek R1 返回结构化的推理结果,并用 '<ant_thinking>' 标签包裹。
- DeepSeek MCP Server 将推理结果返回给 Claude。
- Claude 将推理结果融入最终回复并返回给用户。
通过以上步骤,您可以利用 DeepSeek MCP Server 为您的 LLM 应用增加强大的推理能力。
信息
分类
AI与计算