DeepSeek MCP 服务器

使用说明

  • 项目简介 这是一个完整的 MCP 服务器实现,面向 DeepSeek AI 模型,提供对资源、工具和提示模板的注册与管理,并通过 MCP 客户端进行 JSON-RPC 交互。服务器具备会话管理、模型回退、成本跟踪、多模态输入、流式输出等功能,适合在本地或容器中部署,或通过云端代理对接。

  • 主要功能点

    • MCP 协议核心能力:解析和响应 MCP 请求,支持资源、工具、Prompts 的注册与查询。
    • 资源、工具、提示模板的完整实现与注册,支持多模型能力建模。
    • 会话管理:多-turn 会话、会话历史存储与滚动窗口。
    • 模型回退与断路器:在模型请求失败时自动回退到备选模型,并实现断路器保护。
    • 功能调用:支持 OpenAI 风格的工具调用,与外部函数集成。
    • JSON 输出与多模态输入:支持 JSON 输出模式和文本/图片混合内容输入(开启多模态)。
    • 流式与非流式输出:可选择流式传输或完整文本返回。
    • 传输协议:stdio(标准输入输出)与 HTTP(流式 HTTP 拓展),可容器化部署(Docker)。
    • BYOK 安全访问:通过用户提供的 DeepSeek API Key 调用 DeepSeek 服务。
    • 资源与提示模板的丰富集合:包括 12 种 Prompts、2 个核心工具、以及 3 个 MCP 资源。
  • 安装步骤

    1. 克隆仓库并安装依赖
      • 使用 npm/yarn 安装依赖并构建:安装依赖、编译源代码。
    2. 运行模式选择
      • 本地 stdio 模式(默认):通过命令行启动
      • HTTP 模式(需配置端口与 Key):通过环境变量开启对外 HTTP 端点
    3. 获取并配置 DeepSeek API Key
      • 在环境变量中提供 DEEPSEEK_API_KEY,用于对 DeepSeek API 的鉴权调用
    4. 启动服务器
      • 本地运行:使用默认 stdio 传输启动
      • HTTP 运行:设置 TRANSPORT=http,并可选设置 HTTP_PORT
  • 服务器配置(MCP 客户端需要的最小信息,示例以 JSON 表示) 说明:MCP 客户端需要一个描述 MCP 服务器启动命令和参数的配置(非代码形式),便于按需快速接入。以下为符合仓库实现的有效示例配置要点,实际 JSON 结构请按你使用的 MCP 客户端格式组织: { "mcpServers": { "deepseek": { "name": "deepseek-mcp-server", "command": "npx", "args": ["@arikusi/deepseek-mcp-server"], "env": { "DEEPSEEK_API_KEY": "your-deepseek-api-key" } // 说明: TRANSPORT 默认为 stdio;如需通过 HTTP,请额外设置 TRANSPORT=http } // 你也可以为不同项目创建更多服务器条目 } }

  • 基本使用方法

    1. 通过 CLI 启动并接入 DeepSeek API
      • 在本地项目中配置好 DEEPSEEK_API_KEY 后,使用默认的 stdio 传输运行服务。
    2. 与 MCP 客户端对接
      • 使用 MCP 客户端的标准方式,将上面的配置粘贴到客户端的 MCP 服务器列表中,然后按客户端命令进行初始化连接。
    3. 常用交互
      • 使用 deepseek_chat 工具执行对 DeepSeek 的对话、function 调用等。
      • 使用 deepseek_sessions 工具进行会话管理(列出、清理、删除会话)。
      • 通过 deepseek://models、deepseek://config、deepseek://usage 等资源获取服务器信息、配置和使用情况。

服务器信息