使用说明

项目简介

KAgent MCP Server 是 KAgent 框架的一部分,旨在为 AI Agent 提供 Kubernetes 原生的 MCP (Model Context Protocol) 服务器实现。它允许开发者轻松地在 Kubernetes 环境中部署和管理 AI Agent 的后端服务,并支持通过标准 MCP 协议与 LLM 客户端进行通信。

主要功能点

  • 资源管理: 通过 Kubernetes CRD (Custom Resource Definitions) 定义和管理 Agent、模型、工具等组件,简化 AI Agent 应用的配置和部署。
  • 工具注册与执行: 支持注册和执行多种工具,包括 Kubernetes 常用操作工具 (kubectl)、Istio 服务网格工具 (istioctl)、Argo Rollouts 部署工具以及 Prometheus 监控工具等,扩展 Agent 的能力边界。
  • 标准 MCP 协议: 实现了基于 JSON-RPC 的 MCP 协议,允许 LLM 客户端以标准化的方式调用服务器端的功能和获取上下文信息。
  • 易于部署: 通过 Helm Chart 快速部署到 Kubernetes 集群,并提供 CLI 工具进行交互和管理。

安装步骤

  1. 安装前提条件: 确保已安装 'Helm' 和 'kubectl' 命令行工具,并已配置 Kubernetes 集群访问。

  2. 安装 KAgent Helm Chart: 使用 Helm 命令行工具安装 KAgent MCP Server:

    helm install kagent oci://ghcr.io/kagent-dev/kagent/helm/kagent --set openai.apiKey="your-api-key-here"

    请将 '"your-api-key-here"' 替换为您的 OpenAI API Key (如果 Agent 或 Tool 需要访问 OpenAI 服务)。

  3. 端口转发 (可选): 如果您希望在本地访问 KAgent UI,可以进行端口转发:

    kubectl port-forward svc/kagent 8080:80

    然后通过浏览器访问 'http://localhost:8080'。

服务器配置

MCP 客户端需要配置 MCP 服务器的启动命令及其参数才能建立连接。以下是 KAgent MCP Server 的配置信息,请根据实际情况调整:

{
  "serverName": "kagent-mcp-server",
  "command": "uv",
  "args": [
    "run",
    "kagent",
    "serve",
    "--host",
    "0.0.0.0",
    "--port",
    "8081"
  ],
  "description": "启动 KAgent MCP Server,监听在 8081 端口,主机地址为 0.0.0.0"
}

参数注释:

  • '"serverName"': MCP 服务器的名称,可自定义。
  • '"command"': 启动服务器的命令,这里使用 'uv run' 来运行 Python 脚本。
  • '"args"': 启动命令的参数列表:
    • '"run"': 'uv' 命令的子命令,用于运行 Python 脚本。
    • '"kagent"': 要运行的 Python 脚本,对应 'python/src/kagent/cli.py'。
    • '"serve"': 'kagent' 脚本的子命令,用于启动 MCP 服务器。
    • '"--host", "0.0.0.0"': 指定服务器监听的主机地址为 '0.0.0.0',允许来自任何 IP 的连接。
    • '"--port", "8081"': 指定服务器监听的端口为 '8081'。
  • '"description"': 对配置信息的描述,方便用户理解。

基本使用方法

  1. 部署 KAgent MCP Server: 按照上述安装步骤将 KAgent MCP Server 部署到 Kubernetes 集群中。

  2. 配置 MCP 客户端: 在您的 MCP 客户端应用中,配置上述提供的服务器配置信息,指定连接到 KAgent MCP Server。

  3. 使用工具和资源: 通过 MCP 客户端,您可以调用 KAgent MCP Server 提供的各种工具 (例如 'k8s.get_pods', 'prometheus.query') 和访问在 Kubernetes 中管理的 Agent、模型等资源,构建基于 LLM 的 AI 应用。

信息

分类

AI与计算