使用说明(Markdown 摘要)

  • 项目简介

    • 该项目旨在提供一个基于 MCP 的后端服务体系,用于向大模型客户端提供一致的上下文信息、资源访问、工具执行与 Prompts 渲染能力,并实现会话连续性与可扩展性。
    • 主要组件包括:MCP 服务器实现、资源/计划/会话数据的本地索引与查询、工具与代理的注册与执行、Prompts 的定义与渲染,以及可选的 Braintrust、Perplexity、火爐等外部服务集成。
  • 主要功能点

    • MCP 核心能力
      • 处理 MCP 请求、产出符合 MCP 规范的响应与通知,提供对资源、工具、Prompts 的统一访问入口。
    • 资源与索引
      • 本地化的 artifact/index/continuity 数据结构与索引逻辑,支持对 Handoffs、Plans、Continuity 的查询与检索。
    • 工具注册与执行
      • 多个子模块实现对外暴露的工具封装,提供统一的执行入口,便于 LLM 客户端调用外部功能。
    • Prompt 模板与渲染
      • 提供 prompts 定义、渲染与触发机制,帮助 LLM 客户端在对话时获得一致的上下文和引导。
    • 会话管理与连续性
      • 引入会话 ledger、handoff、braintrust/学习循环等机制,支持跨会话上下文与回顾性改进。
    • 跨传输协议
      • 通过内置的标准化服务器实现,支持如 Stdio、SSE、WebSocket 等传输方式,以满足不同客户端的集成需求。
    • 测试与集成
      • 具备大量用于上下文图检索、计划实现、代码执行、统计与分析的测试用例与集成脚本,覆盖 artifact_index、artifact_query、以及 MCP 客户端/服务器交互。
  • 安装与运行(简要)

    • 运行环境:Python 3.X,依赖库见项目要求。
    • 启动 MCP 服务器通常使用内置的 MCP 运行方式(示例命令在各服务器实现中已有说明),如通过 uv 运行某个服务器脚本模块。
    • 配置 MCP 服务器需要向 MCP 客户端提供服务器启动命令及参数信息(详见下方服务器配置示例)。
    • 外部服务(Braintrust、Perplexity、Nia、Morph、Firecrawl 等)按需开启,需要相应 API Key。
  • 服务器配置(示例,文本描述,不使用代码块)

    • 服务器名称:continuous-claude
    • 启动命令与参数示例(文本描述,实际需按环境部署)
      • 运行时建议使用一个 MCP 服务器进程来暴露所有封装的工具与能力,例如通过一个 MCP 服务器入口脚本来加载 servers/ 目录中的实现。
      • 典型配置要包含:
        • server 名称(如 continuous-claude)
        • 启动命令(如使用 Phoenix 风格的 MCP 运行器:uv run python -m runtime.harness <脚本路径> 或直接执行服务器模块)
        • 参数(如需要的工作目录、环境变量、API Key、数据路径等)
    • 配置示例(文本格式 JSON,非代码块,便于粘贴):{ "mcpServers": { "continuous-claude": { "type": "stdio", "command": "uv", "args": ["run", "python", "-m", "servers.qlty.server"], "env": { "CLAUDE_PROJECT_DIR": "${PWD}", "BRAINTRUST_API_KEY": "<Your Braintrust API Key>", "PERPLEXITY_API_KEY": "<Your Perplexity API Key>" } } } }
    • 说明:实际服务器实现可能暴露在不同的模块入口(如 qlty/server.py、nia/server、firecrawl 等),请按项目中实际的 MCP 服务入口进行配置,确保 server 属性、command、args 与工作目录等与运行环境一致。
  • 基本使用方法

    • 与 MCP 客户端交互:客户端通过 MCP 协议向此服务器发起请求(如读取资源、执行工具、获取 Prompts),服务器返回 JSON-RPC 风格的响应或通知。
    • 调用示例(简化描述):
      • 客户端向 continuous-claude 服务器发起对工具的调用,例如执行某个工具、读取某个资源、或获取一个 Prompts 模板。
      • 服务器返回执行结果、状态信息或中间结果,便于 LLM 客户端继续对话或任务。
    • 运行与调试:
      • 根据实际部署环境,使用支持的 MCP 运行工具启动服务器进程。
      • 通过 MCP 客户端配置,确保服务器名称、启动命令和参数正确对接。
    • 权限与安全:
      • 服务器端处理会话、资源、工具调用等操作,请注意对外暴露的接口权限控制、API Key 安全管理与日志审计。
  • 重要特性与兼容性

    • MCP 核心能力:标准化的资源、工具、Prompts 的暴露与执行
    • 会话连续性:Ledger、Handoff、Braintrust 学习循环等机制
    • 插件化工具生态:多个服务器实现封装成 MCP 工具集,便于扩展
    • 可拓展性:支持多传输协议与外部服务的接入

信息

分类

AI与计算