Turbo EA MCP Server
使用说明(简要使用步骤,便于快速上手)如下:
- 项目简介
- Turbo EA MCP 服务器实现了 Model Context Protocol(MCP)标准,允许 LLM 客户端通过统一的接口读取 EA 数据、执行对 EA 的外部功能调用以及获取/渲染 Prompt 模板,所有访问均在安全的鉴权和 RBAC 体系下进行,提供可扩展的资源、工具、提示模板等能力。
- 主要功能点
- 资源(Resource)管理:提供对卡片类型、关系类型、仪表盘等 EA 数据的只读访问接口。
- 工具(Tools)注册与执行:注册并暴露多种查询工具,例如搜索卡片、获取卡片、获取关系、获取仪表盘等,AI 工具可通过这些工具访问数据。
- 提示模板(Prompts):定义并渲染用于与 LLM 交互的提示模板,支持自定义模板和本地化文本。
- 认证与会话:内置 OAuth 2.1 流程,支持 SSO 回调、PKCE、以及对 MCP 客户端的保护访问。
- stdio 模式测试:在没有 SSO 的情况下,支持直接在本地通过 stdio 进行测试。
- 容器化与部署:可通过 Docker Compose 启动,MCP 服务通常作为独立组件部署,默认端口与身份认证配合使用,便于与后端 API 进行 TLS/鉴权交互。
- 安装步骤
- 直接在本地开发环境运行:使用 Python 环境安装依赖并运行 MCP 服务的主程序;也可以通过 Docker Compose 部署带有 MCP 的组件栈。
- 容器化运行(推荐用于生产环境)
- 通过仓库文档给出的 docker compose 配置启动,通常使用如下方式启用 MCP 服务:docker compose --profile mcp up -d
- 注意:MCP 服务器的实际接口与端口在配置中定义,默认实现中 MCP_PORT 设置为 8001,若使用默认配置,请确保网络与后端 Turbo EA 服务可达。
- 服务器配置(MCP 客户端需要的最小信息,以 JSON 形式表达)
- server name: Turbo EA MCP Server
- command: docker compose
- args: ["--profile", "mcp", "up", "-d"]
- 注释:
- 该配置用于 MCP 客户端识别要连接的 MCP 服务实例的名称、启动命令和参数。真实环境中也可选择直接使用 python -m 指令在本地测试模式运行服务器。
- 基本使用方法
- 启动服务器后,MCP 客户端通过 JSON-RPC 请求调用注册的工具和获取资源信息,例如执行 search_cards、get_card、get_dashboard 等工具,或请求相应的资源定义与 Prompts,服务端按权限策略返回只读数据和工具结果。
- 客户端在请求时需要提供正确的鉴权信息(如 OAuth 令牌/JWT),MCP 服务器会进行鉴权校验并返回相应结果。
- 如需本地调试,可使用 stdio 模式快速验证工具和资源的输出行为。