使用说明
项目简介
mcp-server-deepseek 是一个基于 Model Context Protocol (MCP) 的服务器,它作为一个桥梁,连接了 LLM 应用和 DeepSeek-R1 的强大推理能力。通过提供一个 MCP 工具,该服务器允许任何兼容 MCP 协议的客户端利用 DeepSeek-R1 的推理能力来提升自身模型的输出质量。
主要功能点
- DeepSeek-R1 推理能力接入: 通过 DeepSeek API 连接到 DeepSeek-R1 模型,利用其先��的推理能力。
- 结构化思考输出: 将 DeepSeek-R1 的推理过程以结构化的 '<thinking>' 标签包裹返回,方便客户端解析和利用。
- 完全兼容 MCP 协议: 遵循 Model Context Protocol 标准,可以与任何兼容 MCP 协议的客户端无缝集成。
- 易于安装和配置: 提供详细的安装和配置步骤,方便用户快速部署和使用。
安装步骤
-
克隆仓库:
git clone https://github.com/tizee/mcp-server-deepseek.git cd mcp-server-deepseek -
创建并激活虚拟环境:
python -m venv venv source venv/bin/activate # Linux/macOS # venv\Scripts\activate # Windows -
安装项目依赖:
pip install -e . -
配置 DeepSeek API 密钥:
- 复制 '.env.example' 文件并重命名为 '.env'。
cp .env.example .env- 编辑 '.env' 文件,填入你的 DeepSeek API 密钥和模型信息。
MCP_SERVER_DEEPSEEK_MODEL_NAME=deepseek-reasoner MCP_SERVER_DEEPSEEK_API_KEY=your_api_key_here MCP_SERVER_DEEPSEEK_API_BASE_URL=https://api.deepseek.com
服务器配置
为了让 MCP 客户端连接到 mcp-server-deepseek 服务器,您需要在客户端中配置服务器信息。以下是一个典型的 JSON 格式配置示例,您可以将其添加到您的 MCP 客户端配置中:
{ "serverName": "deepseek-reasoning-server", "command": "mcp-server-deepseek", "args": [], "transports": { "stdio": {} } }
配置参数说明:
- 'serverName': 服务器的名称,可以自定义,用于在客户端中标识该服务器。 例如 '"deepseek-reasoning-server"'。
- 'command': 启动 MCP 服务器的命令。这里设置为 'mcp-server-deepseek', 确保该命令在您的系统环境变量 'PATH' 中可访问,或者使用绝对路径。
- 'args': 启动命令的参数,本服务器不需要额外的启动参数,所以设置为空数组 '[]'。
- 'transports': 定义客户端与服务器通信的传输协议。这里配置了 'stdio',表示使用标准输入输出流进行通信。
基本使用方法
-
启动服务器: 在终端中运行以下命令启动 mcp-server-deepseek 服务器:
mcp-server-deepseek或者使用开发模式(带 MCP Inspector):
make dev -
在 MCP 客户端中使用 'think_with_deepseek_r1' 工具: 在您的 MCP 客户端中,您可以使用 'think_with_deepseek_r1' 工具来调用 DeepSeek-R1 的推理能力。例如,在与 Claude 或其他支持 MCP 协议的 LLM 交互时,您可以指示模型使用该工具来增强其思考过程:
请使用 think_with_deepseek_r1 工具,针对以下问题进行思考: "如何优化神经网络进行时间序列预测?"客户端会将 "如何优化神经网络进行时间序列预测?" 作为 'prompt' 参数传递给 'think_with_deepseek_r1' 工具,服务器会将请求发送给 DeepSeek-R1 模型进行推理,并将包含在 '<thinking>' 标签中的推理结果返回给客户端。客户端可以利用这些结构化的推理结果来改进其最终的响应。
信息
分类
AI与计算