AI Workflow MCP后端服务器
使用说明(Markdown格式)
-
项目简介
- 该仓库实现了一个基于 MCP 的服务器端,用来向大型语言模型客户端提供统一的资源访问、工具执行、以及提示模板渲染能力,帮助将软件开发、运维等场景的上下文信息结构化、可查询、可扩展地提供给LLM。
-
主要功能点
- 资源管理:托管并通过统一接口访问“资源”(如数据、环境信息等),用于数据访问与上下文增强。
- 工具注册与执行:注册一组可被LLM调用的外部工具,并通过一致的接口执行、返回结果。
- 提示模板:定义、渲染并渲染 Prompt 模板,支持可定制的LLM交互模式。
- JSON-RPC通信:服务器通过 JSON-RPC 与客户端通信,接收读取资源、调用工具、获取Prompts等请求,返回结构化响应。
- 会话与状态管理:支持多会话、持久化状态、能力声明,以及跨会话的上下文管理。
- 传输协议支持:支持多种传输协议(如 Stdio、SSE、WebSocket),实现实时工具更新与交互。
- 自动修复与自愈:具备工具自愈、技能自修复、记忆学习回路,提升鲁棒性与稳定性。
-
安装步骤
- 获取代码与环境
- 克隆仓库并进入项目目录,确保已安装 Python 3.10 及以上版本。
- 使用推荐的工具/方法创建虚拟环境并安装依赖(仓库内文档提供了建议的开发流程)。
- 安装依赖与准备
- 根据文档在本地安装所需依赖,确保 server 入口点可用。
- 运行服务器
- 服务器入口点通常是 server 目录中的主入口,执行启动命令即可开启 MCP 服务器并监听客户端请求。
- MCP客户端配置示例(客户端需要的配置,用于与服务器建立连接;下方给出示例JSON,实际路径请根据部署环境调整)
- 确保客户端在根项目目录下配置一个 MCP 服务器条目(名称如 aa_workflow),包含启动命令和参数等信息,便于在 Claude/Cursor 等 IDE 中加载与重载。
- 简要的配置示例(以文本形式给出,便于理解): { "mcpServers": { "aa_workflow": { "command": "bash", "args": [ "-c", "cd ~/src/ai-workflow && source .venv/bin/activate && python3 -m server" ] } } } 说明:上述配置指定了服务器名称、启动命令及参数,客户端在需要时可读取该配置并启动 MCP 服务进行交互。实际路径需替换为部署环境中的路径。
- 获取代码与环境
-
基本使用方法
- 启动与连接:通过客户端配置文件指定的启动命令启动服务器,并在客户端(如 Claude/Cursor)中加载相应的 MCP 服务器配置,建立 JSON-RPC 通道。
- 资源、工具、Prompts 的访问:客户端通过标准化的 MCP 请求接口,请求资源读取、工具调用、以及Prompt获取,服务器返回结构化的 JSON-RPC 响应。
- 会话与记忆:服务器维护多会话上下文,允许跨会话的工具记忆与状态持久化,提升对话的连贯性与上下文感知能力。
- 安全与扩展:服务器具备自愈、学习循环等能力,支持扩展新的工具模块、技能与记忆体系,以及对错误的自诊断与修复。
-
进阶与配置注意
- MCP 客户端不需要直接暴露实现细节,但需要知道如何启动 MCP 服务器(上文示例中的 command/args 配置)。
- 可以参考项目文档中的架构、实现细节、以及各模块的 API 设计,以便在具体场景中对接自定义的资源、工具和 Prompts 模板。