项目简介

本项目是一个为Red Hat OpenShift AI (RHOAI) 环境量身定制的MCP服务器实现。它使得LLM客户端能够通过预定义的工具,以自然语言的方式与OpenShift集群进行交互,管理和查询Pods以及AI工作台(Jupyter Notebooks)等资源。这是一个学士论文项目,旨在展示MCP在管理云原生AI环境中的应用潜力。

主要功能点

该MCP服务器提供以下工具,允许LLM客户端执行对OpenShift集群的操作:

  • 列出Pods (List Pods):查询并列出指定命名空间下的所有Pod及其状态。
  • 列出工作台 (List Workbenches):查询并列出指定项目命名空间下的所有AI工作台(Notebooks)。
  • 列出所有工作台 (List All Workbenches):遍历所有命名空间,列出集群中所有的AI工作台。
  • 启用工作台 (Enable Workbench):允许在指定的项目命名空间中启用一个工作台。

安装步骤

  1. 准备Go环境:确保您的系统已安装Go语言环境。
  2. 克隆仓库:将本GitHub仓库克隆到您的本地机器。
    git clone https://github.com/ada333/mcp-server-rhoai.git
    cd mcp-server-rhoai
  3. 编译服务器:在项目根目录下,使用Go命令编译服务器代码。
    go build -o mcp-rhoai-server
    这将在当前目录下生成一个名为 'mcp-rhoai-server' 的可执行文件。
  4. 配置Kubeconfig:要使服务器能与OpenShift集群交互,请确保您的 '$HOME/.kube/config' 文件已正确配置,并且您已登录到目标OpenShift集群。

服务器配置

MCP服务器是供MCP客户端(如Cursor)使用的。您需要将编译好的服务器配置到您的MCP客户端中。以下是配置示例,假定您的MCP客户端支持JSON格式的服务器配置:

{
  "mcpServers": {
    "workbencheslist": {
      "command": "/path/to/your/compiled/mcp-rhoai-server"
      // "command":指定您在上一步中编译生成的 MCP 服务器可执行文件的完整路径。
      // 例如:"/home/youruser/mcp-server-rhoai/mcp-rhoai-server"
      // 如果服务器启动时需要额外的参数,可以在这里添加 "args": ["--some-flag", "value"]
    }
  }
}

请将 '"/path/to/your/compiled/mcp-rhoai-server"' 替换为您实际编译生成的可执行文件的完整路径。

基本使用方法

  1. 登录OpenShift集群:确保您的终端已通过 'oc login' 或其他方式登录到目标OpenShift集群。
  2. 启用MCP服务器:在您的MCP客户端(例如Cursor)的MCP设置中,确保您已添加并启用了上述配置的 'workbencheslist' 服务器。
  3. 与AI代理互动:在MCP客户端的AI聊天界面中,您可以直接通过自然语言向AI代理提出请求,AI代理会调用MCP服务器提供的工具来执行操作。
    • 示例请求:
      • 'find me all workbenches in the namespace mcp-test' (在'mcp-test'命名空间中查找所有工作台)
      • 'list all pods in the 'default' namespace' (列出'default'命名空间中的所有Pod)
      • 'show me all the workbenches across all namespaces' (显示所有命名空间中的工作台)

信息

分类

开发者工具