项目简介
MCP Toolz 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在作为大型语言模型 (LLM) 客户端(例如 Claude Code)的后端,提供结构化和可持久化的上下文服务。它通过标准化方式管理和提供 LLM 交互所需的各种信息,帮助开发者在编码、架构决策和调试过程中保持工作连续性,并从多个AI模型获取多维度的专业建议。
主要功能点
- 智能上下文管理: 允许用户保存代码片段、对话记录、架构建议或错误追踪等多种类型的上下文。这些上下文可根据项目目录、会话ID和自定义标签进行自动组织和搜索。
- 多AI视角分析: 集成 ChatGPT (OpenAI)、Claude (Anthropic)、Gemini (Google) 和 DeepSeek 等多个知名大型语言模型。用户可以请求不同AI模型对同一上下文进行分析,从而获得多样化的见解和建议,辅助决策和问题解决。
- 待办事项持久化与恢复: 提供强大的待办事项列表管理功能,支持将当前的待办事项保存为快照,并在需要时进行恢复,确保在多次会话或重启应用后,工作进度依然连续。
- 会话连续性与项目组织: 自动为每个Claude Code会话生成唯一ID并跟踪工作会话。所有保存的上下文和待办事项都与当前项目路径和会话关联,便于跨会话和跨项目地查找和复用知识。
- 标准化资源与工具接口: 通过MCP协议提供一系列工具(如 'context_save', 'ask_chatgpt', 'todo_save')和资源(如 'mcp-toolz://contexts/project/recent', 'mcp-toolz://todos/active'),使LLM客户端能够以结构化方式与服务器交互,实现上下文的读写和AI能力的调用。
安装步骤
MCP Toolz 推荐通过 Python 包管理器 PyPI 进行安装,也可以从源代码安装以进行开发。
通过 PyPI 安装 (推荐): 在终端中运行以下命令即可完成安装:
pip install mcp-toolz
从源代码安装 (适用于开发):
- 克隆仓库:'git clone https://github.com/taylorleese/mcp-toolz.git'
- 进入项目目录:'cd mcp-toolz'
- 创建并激活虚拟环境:'python3 -m venv venv'
- macOS/Linux: 'source venv/bin/activate'
- Windows: 'venv\Scripts\activate'
- 安装开发依赖:'pip install -e ".[dev]"'
服务器配置
要将 MCP Toolz 作为 MCP 服务器与 LLM 客户端(如 Claude Code)集成,您需要在客户端的 MCP 设置中添加以下 JSON 配置。这将告诉客户端如何启动并连接到 MCP Toolz 服务器。
{ "mcpServers": { "mcp-toolz": { "command": "python", "args": ["-m", "mcp_server"], "env": { "OPENAI_API_KEY": "sk-...", "ANTHROPIC_API_KEY": "sk-ant-...", "GOOGLE_API_KEY": "...", "DEEPSEEK_API_KEY": "sk-..." } } } }
配置说明:
- '"mcp-toolz"': 这是您为 MCP Toolz 服务器定义的名称。
- '"command": "python"': 指定用于启动服务器的程序。在这里,是您的系统中的 Python 解释器。
- '"args": ["-m", "mcp_server"]': 这是传递给 'python' 命令的参数,指示 Python 运行 'mcp_toolz' 包中的 'mcp_server' 模块作为服务器。
- '"env"': 这是一个可选的字典,用于设置服务器运行时的环境变量。
- '"OPENAI_API_KEY"', '"ANTHROPIC_API_KEY"', '"GOOGLE_API_KEY"', '"DEEPSEEK_API_KEY"':在这里填入您对应 AI 服务的 API 密钥。至少需要配置一个有效的 API 密钥,才能使用相关的 AI 分析功能。
完成配置后,请重启您的 LLM 客户端(例如 Claude Code),以便加载新的 MCP 服务器配置。
基本使用方法
一旦 MCP Toolz 服务器运行起来并与您的 LLM 客户端连接,您就可以通过客户端的自然语言指令来调用其功能。
-
保存上下文:
- 指令示例:“保存此关于认证的上下文,内容是……,标签:'安全'、'认证'。”
- 功能:使用 'context_save' 工具将您提供的文本或代码保存为新的上下文。
-
获取多AI视角分析:
- 指令示例:“请ChatGPT分析我上次保存的关于架构的上下文。”
- 指令示例:“请Claude评估这个错误上下文,并提供调试建议。”
- 功能:使用 'ask_chatgpt'、'ask_claude'、'ask_gemini' 或 'ask_deepseek' 工具,对指定上下文进行AI分析。
-
管理待办事项:
- 指令示例:“保存我当前的待办事项列表,我正在进行'用户注册模块'。”
- 指令示例:“恢复我昨天的待办事项。”
- 功能:使用 'todo_save' 保存当前待办事项列表的快照,使用 'todo_restore' 恢复之前的快照。
-
搜索与查询:
- 指令示例:“搜索所有标签为'性能'的上下文。”
- 指令示例:“显示我活跃的待办事项。”
- 功能:使用 'context_search'、'context_list'、'todo_search' 等工具查找和显示您需要的信息。
这些功能都旨在通过自然的对话方式与您的 LLM 客户端无缝集成,提供更智能、更高效的开发体验。
信息
分类
开发者工具