项目简介

Cortex MCP(Model Context Protocol)服务器是一个后端应用,旨在连接大型语言模型(LLM)客户端(如Claude Desktop、Cursor等)与Cortex API。它通过标准化的方式,将您Cortex工作区中的资源、服务和团队信息等数据整理为LLM可理解的上下文,并将Cortex API的各种操作封装为LLM可调用的工具。这使得LLM能够以自然语言理解并响应关于您系统结构和运维的查询,从而加速决策和提升工作效率。

主要功能点

  • 提供Cortex工作区上下文: 将Cortex平台中关于系统结构、服务、团队、事件、指标等实时信息整理为LLM可理解的“资源”,增强LLM在特定领域的知识背景。
  • 实现Cortex API功能调用: 将Cortex API的各种操作(如查询服务详情、处理事件、查找负责人等)封装为LLM可直接调用的“工具”,从而允许LLM执行自动化任务或获取更具体的信息。
  • 支持多种LLM客户端: 兼容市面上主流的MCP兼容客户端,包括Claude Desktop、Claude Code、Cursor、VSCode和Warp等,提供灵活的集成选项。
  • 多传输协议支持: 支持标准输入输出(Stdio)、服务器发送事件(SSE)和可流式HTTP(Streamable-HTTP)等多种通信协议,以适应不同的客户端和部署环境。

安装步骤

  1. 安装Docker: 确保您的系统已安装并运行Docker,这是Cortex MCP服务器运行的必要环境。
  2. 获取Cortex个人访问令牌: 访问Cortex平台设置中的API密钥页面,创建一个个人访问令牌。这个令牌是Cortex MCP服务器连接Cortex API并获取您工作区数据的重要凭证。
  3. 配置MCP客户端: 根据您使用的MCP兼容客户端,将Cortex MCP服务器作为外部服务器进行配置。您需要将以下JSON格式的配置信息添加到客户端的MCP服务器设置中,并将'YOUR_API_TOKEN_HERE'替换为您在步骤2中获取的实际令牌。

服务器配置

以下是一个典型的MCP客户端配置示例,展示了如何启动Cortex MCP服务器:

{
  "mcpServers": {
    "cortex": {
      "command": "docker",
      "args": [
        "run",
        "--rm",
        "-i",
        "--env",
        "CORTEX_API_TOKEN=YOUR_API_TOKEN_HERE",
        // 如果您是自管理Cortex客户,请取消以下行的注释,并替换为您的Cortex API基础URL:
        // "--env",
        // "CORTEX_API_BASE_URL=https://您的Cortex API地址",
        "ghcr.io/cortexapps/cortex-mcp:latest"
      ]
    }
  }
}
  • 'mcpServers': 定义了MCP服务器的根对象,客户端将在此处查找可用的MCP服务器配置。
  • 'cortex': 这是您为Cortex MCP服务器定义的唯一名称。客户端将使用此名称来引用和管理该服务器。
  • 'command': 指定了启动MCP服务器所使用的命令行工具,在此示例中是'docker'。
  • 'args': 一个字符串数组,包含了传递给'command'的参数。
    • '--rm': 这是一个Docker参数,指示在容器停止后自动删除容器文件系统。
    • '-i': 保持标准输入(stdin)打开,通常用于支持'stdio'(标准输入/输出)传输协议的MCP服务器。
    • '--env CORTEX_API_TOKEN=YOUR_API_TOKEN_HERE': 设置名为'CORTEX_API_TOKEN'的环境变量,其值为您的Cortex个人访问令牌。请务必将'YOUR_API_TOKEN_HERE'替换为您的实际令牌。
    • '--env CORTEX_API_BASE_URL=https://您的Cortex API地址': (可选)如果您使用的是自管理的Cortex实例,则需要设置此环境变量来指定您的Cortex API基础URL。请根据您的实际部署情况进行配置。
    • 'ghcr.io/cortexapps/cortex-mcp:latest': 这是Cortex MCP服务器的Docker镜像地址,'latest'表示使用最新版本。

基本使用方法

配置完成后,您的LLM客户端现在可以通过自然语言与Cortex MCP服务器进行交互。您可以直接向LLM提问,例如:

  • "谁是处理后端服务器事件的合适人选?"
  • "向我展示平台工程团队拥有的所有服务。"
  • "我们遇到了后端服务器事件,请总结相关信息以帮助处理这个事件。"

LLM将利用Cortex MCP服务器提供的丰富上下文信息来理解您的查询,并自动调用相应的Cortex API工具来获取准确的答案或执行指定的操作,从而为您提供智能化的支持。

信息

分类

AI与计算