项目简介
AI Task Master MCP 服务器是基于 Model Context Protocol (MCP) 构建的后端服务,作为 AI Task Master 任务管理系统的扩展。它将核心任务管理命令行接口 (CLI) 的功能封装成标准的 MCP 工具,通过 JSON-RPC 协议与支持 MCP 的 LLM 客户端(如 Cursor)通信。这使得 AI 能够直接调用任务管理功能,实现更智能、自动化和上下文感知的开发工作流程。
主要功能点
该 MCP 服务器主要通过暴露以下 MCP 工具来扩展 AI Task Master 的能力:
- listTasks: 列出所有任务或按状态过滤的任务。
- showTask: 显示特定任务或子任务的详细信息。
- setTaskStatus: 修改任务或子任务的状态(例如:待处理、进行中、完成)。
- expandTask: 将一个复杂任务拆解成更小的子任务。
- nextTask: 根据依赖关系和状态,找出下一个可以开始工作的任务。
- addTask: 使用 AI 辅助添加新的任务到任务列表中。
通过这些工具,LLM 客户端可以获取任务信息、更新任务状态、拆分任务,甚至在 AI 的指导下管理整个项目任务流。
安装步骤
AI Task Master MCP 服务器是 AI Task Master 项目的一部分。安装主项目即可包含 MCP 服务器功能。
- 确保您已安装 Node.js (14.0.0 或更高版本) 和 npm。
- 全局安装 AI Task Master 包:
或者,如果您已在项目中本地安装,则无需额外安装。npm install -g ai-task-manager
MCP 客户端配置
要让 LLM 客户端(例如 Cursor)能够连接并使用 AI Task Master MCP 服务器,您需要在客户端配置中添加一个新的 MCP 服务器。以下是配置所需的关键信息,请根据您的客户端界面填写:
- 服务器名称 (Server Name): 您可以自定义一个名称,例如 'ai-task-manager'。
- 命令 (Command): 用于启动 MCP 服务器进程的命令。通常,您可以使用 'npx' 来执行安装包中的命令,例如: 'npx'
- 参数 (Args): 传递给命令的参数。对于 AI Task Master 的 MCP 服务器,参数通常是启动服务器的入口脚本,例如: '-y --package=ai-task-manager task-manager-mcp-server' ('-y --package=ai-task-manager' 确保使用当前安装的包,'task-manager-mcp-server' 是包中用于启动 MCP 服务器的入口点)
- 环境变量 (Environment Variables - Optional but Recommended): 如果您的 MCP 服务器需要特定的环境变量(例如 API 密钥),可以在这里配置。例如,用于 Gemini API 访问的密钥: 'GOOGLE_API_KEY: 您的 Google API 密钥' 如果您使用代理访问 Gemini API,还可以配置: 'GEMINI_BASE_URL: 您的 Gemini API 代理地址'
请注意,具体的配置界面和格式可能因不同的 MCP 客户端而异。上述信息提供了核心的启动命令和参数。
基本使用方法
AI Task Master MCP 服务器通常不是由用户直接运行的。它被配置在支持 MCP 的 LLM 客户端中,并在客户端需要调用其功能时由客户端自动启动(通常通过 Stdio 传输协议连接)。
一旦在您的 LLM 客户端中配置并启用该 MCP 服务器,您就可以通过客户端的 AI 交互界面(例如,在 Cursor 中通过 Agent 模式)直接向 AI 发出指令,让 AI 调用 Task Master 的各项功能来管理您的项目任务。
例如,在 Cursor 中,您可以通过聊天界面对 AI 说:
- "列出所有待处理的任务。" (AI 可能调用 'listTasks' 工具)
- "任务 3 完成了,请更新状态。" (AI 可能调用 'setTaskStatus' 工具)
- "任务 5 看起来很复杂,把它拆解一下。" (AI 可能调用 'expandTask' 工具)
- "下一个要工作的任务是什么?" (AI 可能调用 'nextTask' 工具)
通过这种方式,AI 成为您任务管理的智能助手,能够理解自然语言指令并执行相应的任务管理操作。
信息
分类
开发者工具