Turbo EA MCP Server

使用说明(简要使用步骤,便于快速上手)如下:

  • 项目简介
    • Turbo EA MCP 服务器实现了 Model Context Protocol(MCP)标准,允许 LLM 客户端通过统一的接口读取 EA 数据、执行对 EA 的外部功能调用以及获取/渲染 Prompt 模板,所有访问均在安全的鉴权和 RBAC 体系下进行,提供可扩展的资源、工具、提示模板等能力。
  • 主要功能点
    • 资源(Resource)管理:提供对卡片类型、关系类型、仪表盘等 EA 数据的只读访问接口。
    • 工具(Tools)注册与执行:注册并暴露多种查询工具,例如搜索卡片、获取卡片、获取关系、获取仪表盘等,AI 工具可通过这些工具访问数据。
    • 提示模板(Prompts):定义并渲染用于与 LLM 交互的提示模板,支持自定义模板和本地化文本。
    • 认证与会话:内置 OAuth 2.1 流程,支持 SSO 回调、PKCE、以及对 MCP 客户端的保护访问。
    • stdio 模式测试:在没有 SSO 的情况下,支持直接在本地通过 stdio 进行测试。
    • 容器化与部署:可通过 Docker Compose 启动,MCP 服务通常作为独立组件部署,默认端口与身份认证配合使用,便于与后端 API 进行 TLS/鉴权交互。
  • 安装步骤
    • 直接在本地开发环境运行:使用 Python 环境安装依赖并运行 MCP 服务的主程序;也可以通过 Docker Compose 部署带有 MCP 的组件栈。
    • 容器化运行(推荐用于生产环境)
      • 通过仓库文档给出的 docker compose 配置启动,通常使用如下方式启用 MCP 服务:docker compose --profile mcp up -d
    • 注意:MCP 服务器的实际接口与端口在配置中定义,默认实现中 MCP_PORT 设置为 8001,若使用默认配置,请确保网络与后端 Turbo EA 服务可达。
  • 服务器配置(MCP 客户端需要的最小信息,以 JSON 形式表达)
    • server name: Turbo EA MCP Server
    • command: docker compose
    • args: ["--profile", "mcp", "up", "-d"]
    • 注释:
      • 该配置用于 MCP 客户端识别要连接的 MCP 服务实例的名称、启动命令和参数。真实环境中也可选择直接使用 python -m 指令在本地测试模式运行服务器。
  • 基本使用方法
    • 启动服务器后,MCP 客户端通过 JSON-RPC 请求调用注册的工具和获取资源信息,例如执行 search_cards、get_card、get_dashboard 等工具,或请求相应的资源定义与 Prompts,服务端按权限策略返回只读数据和工具结果。
    • 客户端在请求时需要提供正确的鉴权信息(如 OAuth 令牌/JWT),MCP 服务器会进行鉴权校验并返回相应结果。
    • 如需本地调试,可使用 stdio 模式快速验证工具和资源的输出行为。

服务器信息