项目简介

Task Manager MCP Server 是一个基于 Model Context Protocol (MCP) 构建的后端服务器,旨在提升 AI 代码编辑器(如 Cursor)的功能。它通过提供任务规划、上下文管理和用户界面,克服了传统代码编辑器在处理复杂任务和大型项目时的上下文窗口限制。该服务器允许 AI 智能体执行更复杂的编码任务,并提供用户友好的界面来监控和调整任务计划。

主要功能点

  • 智能任务规划:根据用户提供的功能描述,利用大语言模型(LLM)结合项目上下文生成详细的编码任务计划,并支持递归分解高难度任务。
  • 集成用户界面:内置 Express 服务器提供静态前端文件和 API 接口,方便用户通过 Web 界面查看任务列表、监控进度和手动调整计划。
  • 无限上下文窗口:利用 Gemini 2.5 的百万 tokens 上下文窗口,结合 'repomix' 的上下文提取技术,为 LLM 提供丰富的项目信息。
  • 会话历史管理:为每个功能维护独立的会话历史,支持 LLM 在后续交互中理解上下文和用户意图。
  • 澄清工作流:当 LLM 需要更多信息时,服务器能够暂停规划流程,并通过 WebSocket 与 UI 交互,请求用户澄清。
  • 任务CRUD操作:用户可以通过 UI 界面创建、读取、更新和删除任务。
  • 代码审查集成:分析 'git diff HEAD' 的输出,利用 LLM 识别潜在问题并创建新的任务。
  • 计划调整:允许用户在任务计划生成后通过 'adjust_plan' 工具进行手动调整。

安装步骤

  1. 克隆仓库
    git clone https://github.com/jhawkins11/task-manager-mcp.git
    cd task-manager-mcp
  2. 安装后端依赖
    npm install
  3. 构建项目
    npm run build

服务器配置

为了让 MCP 客户端(如 Cursor)连接到 Task Manager MCP Server,您需要在客户端的 MCP 配置文件(通常是 'mcp.json')中添加以下服务器配置。请根据您的实际安装路径替换 '/full/path/to/your/task-manager-mcp/dist/server.js'。

{
  "mcpServers": {
    "task-manager-mcp": {
      "command": "node",
      "args": ["/full/path/to/your/task-manager-mcp/dist/server.js"],
      "env": {
        "OPENROUTER_API_KEY": "sk-or-v1-xxxxxxxxxxxxxxxxxxxx",
        // (可选) 您可以指定 OpenRouter 模型,默认已设置为 Gemini 2.5 Pro Free
        // "OPENROUTER_MODEL": "google/gemini-2.5-pro-exp-03-25:free",
        // (可选) 您可以指定后备 OpenRouter 模型
        // "FALLBACK_OPENROUTER_MODEL": "google/gemini-2.5-flash-preview:thinking",
        // (可选) UI 端口,默认为 4999
        // "UI_PORT": "4999",
        // (可选) WebSocket 服务器端口,默认为 4999
        // "WS_PORT": "4999"
        // 如果您直接使用 Google AI API,请在此处添加 GEMINI_API_KEY
        // "GEMINI_API_KEY": "your_google_ai_api_key"
        // 您可以在此处添加任何其他必要的环境变量
      }
    }
  }
}

配置说明:

  • '"command": "node"': 指定用于启动 MCP 服务器的命令为 Node.js。
  • '"args": ["/full/path/to/your/task-manager-mcp/dist/server.js"]"': 指定 Node.js 命令的参数,即服务器脚本的绝对路径。请务必替换为实际路径。
  • '"env": { ... }"': 配置服务器运行所需的环境变量。
    • '"OPENROUTER_API_KEY": "sk-or-v1-xxxxxxxxxxxxxxxxxxxx"': 必需,您的 OpenRouter API 密钥,用于访问大语言模型服务。请替换为您的实际密钥。您也可以选择使用 Google AI API 密钥 'GEMINI_API_KEY'。

基本使用方法

  1. 启动服务器:配置完成后,当您在 Cursor 中激活使用了该 MCP 服务器的自定义模式时,Cursor 会自动启动 Task Manager MCP Server。
  2. 在 Cursor 中使用
    • 创建或编辑 Cursor 的自定义模式。
    • 启用 "Tools" 并确保启用了该服务器暴露的工具 (例如 'plan_feature', 'mark_task_complete' 等)。
    • 在自定义模式的 "Custom Instructions" 中,粘贴仓库提供的推荐指令,以指导 AI 智能体正确使用工具。
    • 在 Cursor 中选择您创建的自定义模式,并输入功能需求,开始使用任务管理功能。
  3. 访问 UI 界面:服务器启动后,UI 界面通常会自动在浏览器中打开。您也可以手动访问 'http://localhost:4999' (如果使用默认端口) 来查看和管理任务。

信息

分类

开发者工具