项目简介

MCP Toolz 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在作为大型语言模型 (LLM) 客户端(例如 Claude Code)的后端,提供结构化和可持久化的上下文服务。它通过标准化方式管理和提供 LLM 交互所需的各种信息,帮助开发者在编码、架构决策和调试过程中保持工作连续性,并从多个AI模型获取多维度的专业建议。

主要功能点

  • 智能上下文管理: 允许用户保存代码片段、对话记录、架构建议或错误追踪等多种类型的上下文。这些上下文可根据项目目录、会话ID和自定义标签进行自动组织和搜索。
  • 多AI视角分析: 集成 ChatGPT (OpenAI)、Claude (Anthropic)、Gemini (Google) 和 DeepSeek 等多个知名大型语言模型。用户可以请求不同AI模型对同一上下文进行分析,从而获得多样化的见解和建议,辅助决策和问题解决。
  • 待办事项持久化与恢复: 提供强大的待办事项列表管理功能,支持将当前的待办事项保存为快照,并在需要时进行恢复,确保在多次会话或重启应用后,工作进度依然连续。
  • 会话连续性与项目组织: 自动为每个Claude Code会话生成唯一ID并跟踪工作会话。所有保存的上下文和待办事项都与当前项目路径和会话关联,便于跨会话和跨项目地查找和复用知识。
  • 标准化资源与工具接口: 通过MCP协议提供一系列工具(如 'context_save', 'ask_chatgpt', 'todo_save')和资源(如 'mcp-toolz://contexts/project/recent', 'mcp-toolz://todos/active'),使LLM客户端能够以结构化方式与服务器交互,实现上下文的读写和AI能力的调用。

安装步骤

MCP Toolz 推荐通过 Python 包管理器 PyPI 进行安装,也可以从源代码安装以进行开发。

通过 PyPI 安装 (推荐): 在终端中运行以下命令即可完成安装:

pip install mcp-toolz

从源代码安装 (适用于开发):

  1. 克隆仓库:'git clone https://github.com/taylorleese/mcp-toolz.git'
  2. 进入项目目录:'cd mcp-toolz'
  3. 创建并激活虚拟环境:'python3 -m venv venv'
    • macOS/Linux: 'source venv/bin/activate'
    • Windows: 'venv\Scripts\activate'
  4. 安装开发依赖:'pip install -e ".[dev]"'

服务器配置

要将 MCP Toolz 作为 MCP 服务器与 LLM 客户端(如 Claude Code)集成,您需要在客户端的 MCP 设置中添加以下 JSON 配置。这将告诉客户端如何启动并连接到 MCP Toolz 服务器。

{
  "mcpServers": {
    "mcp-toolz": {
      "command": "python",
      "args": ["-m", "mcp_server"],
      "env": {
        "OPENAI_API_KEY": "sk-...",
        "ANTHROPIC_API_KEY": "sk-ant-...",
        "GOOGLE_API_KEY": "...",
        "DEEPSEEK_API_KEY": "sk-..."
      }
    }
  }
}

配置说明:

  • '"mcp-toolz"': 这是您为 MCP Toolz 服务器定义的名称。
  • '"command": "python"': 指定用于启动服务器的程序。在这里,是您的系统中的 Python 解释器。
  • '"args": ["-m", "mcp_server"]': 这是传递给 'python' 命令的参数,指示 Python 运行 'mcp_toolz' 包中的 'mcp_server' 模块作为服务器。
  • '"env"': 这是一个可选的字典,用于设置服务器运行时的环境变量。
    • '"OPENAI_API_KEY"', '"ANTHROPIC_API_KEY"', '"GOOGLE_API_KEY"', '"DEEPSEEK_API_KEY"':在这里填入您对应 AI 服务的 API 密钥。至少需要配置一个有效的 API 密钥,才能使用相关的 AI 分析功能。

完成配置后,请重启您的 LLM 客户端(例如 Claude Code),以便加载新的 MCP 服务器配置。

基本使用方法

一旦 MCP Toolz 服务器运行起来并与您的 LLM 客户端连接,您就可以通过客户端的自然语言指令来调用其功能。

  1. 保存上下文:

    • 指令示例:“保存此关于认证的上下文,内容是……,标签:'安全'、'认证'。”
    • 功能:使用 'context_save' 工具将您提供的文本或代码保存为新的上下文。
  2. 获取多AI视角分析:

    • 指令示例:“请ChatGPT分析我上次保存的关于架构的上下文。”
    • 指令示例:“请Claude评估这个错误上下文,并提供调试建议。”
    • 功能:使用 'ask_chatgpt'、'ask_claude'、'ask_gemini' 或 'ask_deepseek' 工具,对指定上下文进行AI分析。
  3. 管理待办事项:

    • 指令示例:“保存我当前的待办事项列表,我正在进行'用户注册模块'。”
    • 指令示例:“恢复我昨天的待办事项。”
    • 功能:使用 'todo_save' 保存当前待办事项列表的快照,使用 'todo_restore' 恢复之前的快照。
  4. 搜索与查询:

    • 指令示例:“搜索所有标签为'性能'的上下文。”
    • 指令示例:“显示我活跃的待办事项。”
    • 功能:使用 'context_search'、'context_list'、'todo_search' 等工具查找和显示您需要的信息。

这些功能都旨在通过自然的对话方式与您的 LLM 客户端无缝集成,提供更智能、更高效的开发体验。

信息

分类

开发者工具