使用说明(Markdown格式)

  • 项目简介

    • 该仓库实现了 Apply Task 的 MCP 服务器部分,作为 AI 客户端(LLM/代理)对接的后端服务。通过 MCP 标准暴露资源、工具、以及提示模板等能力,帮助 AI 客户端以标准化的方式获取上下文信息和执行外部功能。
  • 主要功能点

    • MCP 核心能力:以 JSON-RPC 风格处理客户端请求,返回结构化的 JSON-RPC 响应或通知。
    • 资源与数据访问:提供对任务领域数据的托管与访问能力,便于 AI 客户端读取必要的上下文信息。
    • 工具接入与执行:注册并执行外部工具,LLM 可以调用预定义的工具来完成任务或获取信息。
    • Prompt 模板与渲染:定义和渲染 Prompt 模板,支持自定义的 LLM 交互模式。
    • 会话与能力声明:服务器端负责会话状态管理、能力声明,支持多种传输协议(如 StdIO、SSE、WebSocket)。
    • 本地开发与调试友好:提供本地快速启动方式,结合 TUI/GUI 与 MCP 交互进行端到端验证。
  • 安装步骤

    • 配置依赖:安装所需依赖(通常使用 pip 安装项目中列出的 requirements.txt)。
    • 安装并添加到 PATH(一次性):将项目安装到全局环境中,确保脚本可直接调用。
    • 运行 MCP 服务:
      • 在项目根目录,执行: apply_task mcp
      • 如果需要本地后端数据存储,请使用: apply_task mcp --local
    • 启动后,MCP 将监听并对接客户端进行 JSON-RPC 通信。
  • 服务器配置(面向 MCP 客户端,客户端不需要改变此配置)

    • server_name: tasks
    • command: apply_task
    • args: ["mcp"]
    • 说明:该配置告诉 MCP 客户端通过系统命令启用服务器进程,命令及参数来自仓库提供的入口脚本。客户端据此连接到 MCP 服务器并按 MCP 协议进行请求/响应。
  • 基本使用方法

    • 启动服务器后,客户端通过 MCP 协议向服务器发出读取资源、调用工具、获取 Prompt 等请求。
    • 常见操作包括:
      • 请求对某个任务集合的上下文信息
      • 调用所注册的工具以执行外部操作
      • 获取并渲染对应的 Prompt 模板
    • 开发者可通过 reproduce_ipc.py、apply_task.py(mcp 子命令)等脚本对 MCP 服务进行集成测试。
  • 备注

    • 该 MCP 服务与 CLI 指令紧密耦合,适合在本地开发环境与 AI 助手进行集成验证。

信息

分类

开发者工具