DeepSeek MCP服务器使用说明
项目简介
这是一个基于Model Context Protocol (MCP) 实现的服务器,专门用于集成DeepSeek的API能力。它允许兼容MCP协议的LLM客户端(如一些桌面应用)通过结构化的“工具调用”方式与DeepSeek模型进行交互,特别强化了代码相关的交互场景,例如代码评审和文件内容引用。
主要功能点
- AI问答与代码评审: 使用 DeepSeek 的 AI 模型回答问题,特别是进行详细的代码分析和评审。
- 文件内容引用: 支持在提问时直接通过本地文件路径引用文件内容,服务器会自动读取文件并将其作为上下文发送给AI。
- 多模型支持: 可配置使用 DeepSeek 的不同模型,如 'deepseek-chat' 或 'deepseek-coder'。
- API信息查询: 提供查询 DeepSeek API 账户余额及可用模型列表的功能。
- Token估算: 支持估算文本或文件内容的 Token 数量。
- 结构化响应: 支持请求 AI 模型返回 JSON 格式的结构化数据,便于自动化处理。
- 安全与可靠: 包含文件大小/类型限制、API请求重试等机制。
安装步骤
- 安装 Go: 确保您已安装 Go 1.21 或更高版本。
- 获取 DeepSeek API Key: 访问 DeepSeek 平台获取您的 API Key。
- 克隆仓库: 使用 'git clone https://github.com/chew-z/DeepseekMCP' 克隆项目到本地。
- 进入项目目录: 'cd DeepseekMCP'
- 构建: 执行 'go build -o bin/mcp-deepseek' 构建服务器可执行文件。构建成功后,您会在 'bin' 目录下找到 'mcp-deepseek' 文件。
服务器配置 (供MCP客户端使用)
MCP服务器通常作为LLM客户端的一个外部进程启动和通信。您需要在MCP客户端的设置中配置此服务器。以下是常见的配置模式,具体格式取决于您的客户端,但核心是指定服务器可执行文件及其启动参数:
{ "mcpServers": { "deepseek": { "command": "/path/to/your/project/bin/mcp-deepseek", // 将此路径替换为您实际构建出的可执行文件路径 "env": { "DEEPSEEK_API_KEY": "YOUR_API_KEY", // 替换为您的 DeepSeek API Key "DEEPSEEK_MODEL": "deepseek-chat", // 可选,指定默认模型 // 其他可选环境变量请参考项目 README.md 中的 Environment Variables 部分 } } } }
在配置中指定 'command' 告诉客户端如何启动此MCP服务器进程。'env' 部分用于设置服务器启动时读取的环境变量,这是传递API Key等敏感信息和配置的首选方式。
基本使用方法
配置完成后,MCP客户端会在需要时自动启动并与 DeepSeek MCP 服务器通信。您可以在客户端界面中通过调用服务器提供的“工具”来使用其功能。
例如,要在客户端中调用 'deepseek_ask' 工具进行代码评审:
- 在客户端的工具调用界面或通过特定语法触发工具调用。
- 指定工具名称为 'deepseek_ask'。
- 提供工具所需的参数,如:
- 'query': 您的评审请求或问题文本。
- 'file_paths': 一个包含需要评审的本地文件路径的列表(如 '["/path/to/your/code.go"]')。
- 'model': (可选) 指定一个不同的 DeepSeek 模型。
- 'json_mode': (可选) 设置为 'true' 以尝试获取 JSON 格式响应。
其他工具如 'deepseek_models' (列出模型)、'deepseek_balance' (检查余额)、'deepseek_token_estimate' (估算Token) 也以类似方式调用,根据工具定义提供相应参数即可。具体每个工具支持的参数及其用途,建议参考客户端界面或项目原始文档的 "Core API Tools" 部分。
信息
分类
AI与计算