项目简介

Research Kit 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在提升 AI 模型的性能。它通过提供与各种开发工具和服务(如 Deepseek、Gemini)的无缝集成,充当 AI 模型(如 Claude)与外部世界的桥梁。Research Kit 特别适用于自动化开发工作流程、管理文档和处理版本控制操作。

主要功能点

  • 工具集成: 集成了 Deepseek 的推理引擎 ('deepseek_reasoning')、Gemini 的思考工具 ('gemini_thinking') 和顺序思考工具 ('sequentialthinking'),扩展了 LLM 的能力。
  • 环境配置: 通过 '.env' 文件管理 API 密钥和代理设置等配置信息。
  • 灵活的工具启用: 可以通过 'ENABLE_TOOLS' 环境变量灵活控制启用的工具组。
  • 标准 MCP 服务器: 基于 'mcp-go' 库构建,遵循 MCP 协议,可以与任何兼容 MCP 协议的客户端(如 Claude)进行交互。

安装步骤

  1. 安装 Go: 确保已安装 Go 1.23.2 或更高版本。
  2. 安装 Research Kit 服务器:
    go install github.com/nguyenvanduocit/research-kit@latest
  3. 配置环境变量:
    • 在服务器运行目录下创建 '.env' 文件,并根据需要配置以下环境变量:
      DEEPSEEK_API_KEY=      # (必需) Deepseek API 密钥,用于高级推理能力
      GOOGLE_AI_API_KEY=     # (必需) Google AI API 密钥,用于 Gemini 服务
      ENABLE_TOOLS=          # (可选) 逗号分隔的工具组列表,用于启用特定工具组 (留空启用所有工具)
      PROXY_URL=            # (可选) HTTP/HTTPS 代理 URL
    • 请务必替换 'DEEPSEEK_API_KEY' 和 'GOOGLE_AI_API_KEY' 为您自己的 API 密钥。

服务器配置

要将 Research Kit 服务器配置到 MCP 客户端(例如 Claude),您需要编辑客户端的配置文件(例如 'claude_desktop_config.json'),添加如下 'mcpServers' 配置:

{
  "mcpServers": {
    "research_kit": {
      "command": "research-kit",
      "args": ["-env", "/path/to/.env"]
    }
  }
}

配置参数说明:

  • '"research_kit"': 服务器名称,可以自定义。
  • '"command": "research-kit"': 启动服务器的命令,假设 'research-kit' 可执行文件已添加到系统 PATH 环境变量中。如果未添加到 PATH,则需要使用可执行文件的完整路径。
  • '"args": ["-env", "/path/to/.env"]': 传递给服务器的启动参数。
    • '"-env"': 指定环境变量配置文件路径的参数。
    • '"/path/to/.env"': 替换为实际的 '.env' 文件路径。

注意: 请根据实际情况修改 'command' 和 'args' 中的路径。

基本使用方法

  1. 启动服务器: 在安装 Research Kit 的机器上,确保 '.env' 文件配置正确,然后在终端中运行 'research-kit -env /path/to/.env' (根据实际 '.env' 文件路径调整)。
  2. 配置 MCP 客户端: 根据上述 "服务器配置" 步骤配置 MCP 客户端,使其连接到 Research Kit 服务器。
  3. 在 MCP 客户端中使用工具: 在 MCP 客户端中,您可以指示 AI 模型调用 Research Kit 服务器提供的工具,例如:
    • 使用 'deepseek_reasoning' 工具进行复杂的推理和分析。
    • 使用 'gemini_thinking' 工具让 Gemini 模型进行思考并提供详细答案。
    • 使用 'sequentialthinking' 工具进行动态和反思性的问题解决。

具体工具的使用方法和参数请参考仓库 README.md 中 "Available Tools" 部分的描述。

信息

分类

AI与计算