使用说明(Markdown格式)
-
项目简介
- 该仓库实现了 Apply Task 的 MCP 服务器部分,作为 AI 客户端(LLM/代理)对接的后端服务。通过 MCP 标准暴露资源、工具、以及提示模板等能力,帮助 AI 客户端以标准化的方式获取上下文信息和执行外部功能。
-
主要功能点
- MCP 核心能力:以 JSON-RPC 风格处理客户端请求,返回结构化的 JSON-RPC 响应或通知。
- 资源与数据访问:提供对任务领域数据的托管与访问能力,便于 AI 客户端读取必要的上下文信息。
- 工具接入与执行:注册并执行外部工具,LLM 可以调用预定义的工具来完成任务或获取信息。
- Prompt 模板与渲染:定义和渲染 Prompt 模板,支持自定义的 LLM 交互模式。
- 会话与能力声明:服务器端负责会话状态管理、能力声明,支持多种传输协议(如 StdIO、SSE、WebSocket)。
- 本地开发与调试友好:提供本地快速启动方式,结合 TUI/GUI 与 MCP 交互进行端到端验证。
-
安装步骤
- 配置依赖:安装所需依赖(通常使用 pip 安装项目中列出的 requirements.txt)。
- 安装并添加到 PATH(一次性):将项目安装到全局环境中,确保脚本可直接调用。
- 运行 MCP 服务:
- 在项目根目录,执行: apply_task mcp
- 如果需要本地后端数据存储,请使用: apply_task mcp --local
- 启动后,MCP 将监听并对接客户端进行 JSON-RPC 通信。
-
服务器配置(面向 MCP 客户端,客户端不需要改变此配置)
- server_name: tasks
- command: apply_task
- args: ["mcp"]
- 说明:该配置告诉 MCP 客户端通过系统命令启用服务器进程,命令及参数来自仓库提供的入口脚本。客户端据此连接到 MCP 服务器并按 MCP 协议进行请求/响应。
-
基本使用方法
- 启动服务器后,客户端通过 MCP 协议向服务器发出读取资源、调用工具、获取 Prompt 等请求。
- 常见操作包括:
- 请求对某个任务集合的上下文信息
- 调用所注册的工具以执行外部操作
- 获取并渲染对应的 Prompt 模板
- 开发者可通过 reproduce_ipc.py、apply_task.py(mcp 子命令)等脚本对 MCP 服务进行集成测试。
-
备注
- 该 MCP 服务与 CLI 指令紧密耦合,适合在本地开发环境与 AI 助手进行集成验证。
信息
分类
开发者工具