使用说明

项目简介

Deep Reasoning Server (OpenRouter) 是一个实现了 Model Context Protocol (MCP) 的后端服务器,旨在为 LLM 客户端(如 Cursor 编辑器)提供强大的深度推理能力。它通过集成 OpenRouter API 和 DeepSeek 模型,提供了一个名为 'deep-reasoning' 的工具,能够对用户输入的文本进行深入分析、优化和总结。

主要功能点

  • MCP 服务器实现: 遵循 Model Context Protocol,提供标准化的上下文服务接口。
  • 深度推理工具: 内置 'deep-reasoning' 工具,利用 DeepSeek 模型进行内容的深度分析和推理。
  • OpenRouter 集成: 通过 OpenRouter API 访问多种大型语言模型,支持灵活的模型选择。
  • Prompt 模板: 使用预定义的 Prompt 模板 ('getResponsePrompt', 'getReasoningModelSystem', 'getReasoningModelProcessTarget') 引导模型进行推理和响应生成。
  • SSE 和 Stdio 传输: 支持 SSE (Server-Sent Events) 和 Stdio 两种传输协议,方便与不同类型的 MCP 客户端集成。

安装步骤

无需安装,此项目以 npm 包的形式发布,可以直接通过 'npx' 命令运行。

服务器配置

为了让 MCP 客户端(例如 Cursor)连接到 Deep Reasoning Server,您需要配置 MCP 服务器的启动命令和参数。以下是 Cursor 编辑器 Command 类型 MCP Server 的配置信息示例:

{
  "serverName": "Deep Reasoning Server (OpenRouter)",
  "command": "npx",
  "args": [
    "-y",
    "deep-reasoning-mcp@latest",
    "--apiKey=<YOUR_OPENROUTER_API_KEY>",
    "--model=<YOUR_MODEL>"
  ],
  "parameters": [
    {
      "name": "apiKey",
      "description": "您的 OpenRouter API 密钥",
      "required": true
    },
    {
      "name": "model",
      "description": "要使用的模型名称,例如 deepseek/deepseek-r1-distill-qwen-32b,默认为 deepseek/deepseek-r1-distill-qwen-32b",
      "required": false
    }
  ]
}

参数说明:

  • 'serverName': MCP 服务器的名称,可以自定义。
  • 'command': 运行 MCP 服务器的命令,这里使用 'npx'。
  • 'args': 传递给 'npx' 命令的参数列表:
    • '-y': 'npx' 参数,自动确认安装包。
    • 'deep-reasoning-mcp@latest': 要执行的 npm 包名和版本,'@latest' 表示使用最新版本。
    • '--apiKey=<YOUR_OPENROUTER_API_KEY>': 必需参数,您的 OpenRouter API 密钥,请替换为您的实际密钥。
    • '--model=<YOUR_MODEL>': 可选参数,指定要使用的模型名称,默认为 'deepseek/deepseek-r1-distill-qwen-32b'。您可以根据需要在 'parameters' 字段中配置参数,方便 MCP 客户端用户进行设置。

注意: 请务必将 '<YOUR_OPENROUTER_API_KEY>' 替换为您在 OpenRouter 平台申请的 API 密钥,并根据需要选择合适的模型。

基本使用方法

  1. 启动服务器: 在终端中执行 'npx -y deep-reasoning-mcp@latest --apiKey=<YOUR_OPENROUTER_API_KEY> --model=<YOUR_MODEL>' 命令启动 Deep Reasoning Server。
  2. 配置 MCP 客户端: 在您的 MCP 客户端(如 Cursor 编辑器)中,添加 Command 类型的 MCP Server,并填入上述提供的配置信息,确保 API 密钥和模型参数配置正确。
  3. 使用 'deep-reasoning' 工具: 在 MCP 客户端中,您应该能够找到并调用 'deep-reasoning' 工具。该工具接受 'statement' (要分析的内容) 和 'context' (上下文信息) 作为输入,并返回深度分析后的结果。

例如,在 Cursor 编辑器中,您可以使用 '@deep-reasoning' 命令并输入您的文本内容,即可使用深度推理功能。

信息

分类

AI与计算