使用说明
项目简介
Deep Reasoning Server (OpenRouter) 是一个实现了 Model Context Protocol (MCP) 的后端服务器,旨在为 LLM 客户端(如 Cursor 编辑器)提供强大的深度推理能力。它通过集成 OpenRouter API 和 DeepSeek 模型,提供了一个名为 'deep-reasoning' 的工具,能够对用户输入的文本进行深入分析、优化和总结。
主要功能点
- MCP 服务器实现: 遵循 Model Context Protocol,提供标准化的上下文服务接口。
- 深度推理工具: 内置 'deep-reasoning' 工具,利用 DeepSeek 模型进行内容的深度分析和推理。
- OpenRouter 集成: 通过 OpenRouter API 访问多种大型语言模型,支持灵活的模型选择。
- Prompt 模板: 使用预定义的 Prompt 模板 ('getResponsePrompt', 'getReasoningModelSystem', 'getReasoningModelProcessTarget') 引导模型进行推理和响应生成。
- SSE 和 Stdio 传输: 支持 SSE (Server-Sent Events) 和 Stdio 两种传输协议,方便与不同类型的 MCP 客户端集成。
安装步骤
无需安装,此项目以 npm 包的形式发布,可以直接通过 'npx' 命令运行。
服务器配置
为了让 MCP 客户端(例如 Cursor)连接到 Deep Reasoning Server,您需要配置 MCP 服务器的启动命令和参数。以下是 Cursor 编辑器 Command 类型 MCP Server 的配置信息示例:
{ "serverName": "Deep Reasoning Server (OpenRouter)", "command": "npx", "args": [ "-y", "deep-reasoning-mcp@latest", "--apiKey=<YOUR_OPENROUTER_API_KEY>", "--model=<YOUR_MODEL>" ], "parameters": [ { "name": "apiKey", "description": "您的 OpenRouter API 密钥", "required": true }, { "name": "model", "description": "要使用的模型名称,例如 deepseek/deepseek-r1-distill-qwen-32b,默认为 deepseek/deepseek-r1-distill-qwen-32b", "required": false } ] }
参数说明:
- 'serverName': MCP 服务器的名称,可以自定义。
- 'command': 运行 MCP 服务器的命令,这里使用 'npx'。
- 'args': 传递给 'npx' 命令的参数列表:
- '-y': 'npx' 参数,自动确认安装包。
- 'deep-reasoning-mcp@latest': 要执行的 npm 包名和版本,'@latest' 表示使用最新版本。
- '--apiKey=<YOUR_OPENROUTER_API_KEY>': 必需参数,您的 OpenRouter API 密钥,请替换为您的实际密钥。
- '--model=<YOUR_MODEL>': 可选参数,指定要使用的模型名称,默认为 'deepseek/deepseek-r1-distill-qwen-32b'。您可以根据需要在 'parameters' 字段中配置参数,方便 MCP 客户端用户进行设置。
注意: 请务必将 '<YOUR_OPENROUTER_API_KEY>' 替换为您在 OpenRouter 平台申请的 API 密钥,并根据需要选择合适的模型。
基本使用方法
- 启动服务器: 在终端中执行 'npx -y deep-reasoning-mcp@latest --apiKey=<YOUR_OPENROUTER_API_KEY> --model=<YOUR_MODEL>' 命令启动 Deep Reasoning Server。
- 配置 MCP 客户端: 在您的 MCP 客户端(如 Cursor 编辑器)中,添加 Command 类型的 MCP Server,并填入上述提供的配置信息,确保 API 密钥和模型参数配置正确。
- 使用 'deep-reasoning' 工具: 在 MCP 客户端中,您应该能够找到并调用 'deep-reasoning' 工具。该工具接受 'statement' (要分析的内容) 和 'context' (上下文信息) 作为输入,并返回深度分析后的结果。
例如,在 Cursor 编辑器中,您可以使用 '@deep-reasoning' 命令并输入您的文本内容,即可使用深度推理功能。
信息
分类
AI与计算