DeepSeek MCP 服务器
使用说明
-
项目简介 这是一个完整的 MCP 服务器实现,面向 DeepSeek AI 模型,提供对资源、工具和提示模板的注册与管理,并通过 MCP 客户端进行 JSON-RPC 交互。服务器具备会话管理、模型回退、成本跟踪、多模态输入、流式输出等功能,适合在本地或容器中部署,或通过云端代理对接。
-
主要功能点
- MCP 协议核心能力:解析和响应 MCP 请求,支持资源、工具、Prompts 的注册与查询。
- 资源、工具、提示模板的完整实现与注册,支持多模型能力建模。
- 会话管理:多-turn 会话、会话历史存储与滚动窗口。
- 模型回退与断路器:在模型请求失败时自动回退到备选模型,并实现断路器保护。
- 功能调用:支持 OpenAI 风格的工具调用,与外部函数集成。
- JSON 输出与多模态输入:支持 JSON 输出模式和文本/图片混合内容输入(开启多模态)。
- 流式与非流式输出:可选择流式传输或完整文本返回。
- 传输协议:stdio(标准输入输出)与 HTTP(流式 HTTP 拓展),可容器化部署(Docker)。
- BYOK 安全访问:通过用户提供的 DeepSeek API Key 调用 DeepSeek 服务。
- 资源与提示模板的丰富集合:包括 12 种 Prompts、2 个核心工具、以及 3 个 MCP 资源。
-
安装步骤
- 克隆仓库并安装依赖
- 使用 npm/yarn 安装依赖并构建:安装依赖、编译源代码。
- 运行模式选择
- 本地 stdio 模式(默认):通过命令行启动
- HTTP 模式(需配置端口与 Key):通过环境变量开启对外 HTTP 端点
- 获取并配置 DeepSeek API Key
- 在环境变量中提供 DEEPSEEK_API_KEY,用于对 DeepSeek API 的鉴权调用
- 启动服务器
- 本地运行:使用默认 stdio 传输启动
- HTTP 运行:设置 TRANSPORT=http,并可选设置 HTTP_PORT
- 克隆仓库并安装依赖
-
服务器配置(MCP 客户端需要的最小信息,示例以 JSON 表示) 说明:MCP 客户端需要一个描述 MCP 服务器启动命令和参数的配置(非代码形式),便于按需快速接入。以下为符合仓库实现的有效示例配置要点,实际 JSON 结构请按你使用的 MCP 客户端格式组织: { "mcpServers": { "deepseek": { "name": "deepseek-mcp-server", "command": "npx", "args": ["@arikusi/deepseek-mcp-server"], "env": { "DEEPSEEK_API_KEY": "your-deepseek-api-key" } // 说明: TRANSPORT 默认为 stdio;如需通过 HTTP,请额外设置 TRANSPORT=http } // 你也可以为不同项目创建更多服务器条目 } }
-
基本使用方法
- 通过 CLI 启动并接入 DeepSeek API
- 在本地项目中配置好 DEEPSEEK_API_KEY 后,使用默认的 stdio 传输运行服务。
- 与 MCP 客户端对接
- 使用 MCP 客户端的标准方式,将上面的配置粘贴到客户端的 MCP 服务器列表中,然后按客户端命令进行初始化连接。
- 常用交互
- 使用 deepseek_chat 工具执行对 DeepSeek 的对话、function 调用等。
- 使用 deepseek_sessions 工具进行会话管理(列出、清理、删除会话)。
- 通过 deepseek://models、deepseek://config、deepseek://usage 等资源获取服务器信息、配置和使用情况。
- 通过 CLI 启动并接入 DeepSeek API