Axon MCP Server

使用说明(Markdown)

  • 项目简介

    • Axon 提供一个 MCP 服务器实现,核心职责是通过 MCP 标准向 LLM 客户端提供资源数据、可调用的工具,以及可渲染的提示模板,确保后端服务与大模型工具链之间的通用、可扩展的通信。
    • 该实现以 HTTP-test 配置为主,支持通过梅子容器/服务端模式与客户端进行 JSON-RPC 交互,并具备会话管理与多种传输方式的基础能力。
  • 主要功能点

    • 资源与数据访问:在 MCP 上托管可供 LLM 获取的资源和数据入口。
    • 工具注册与执行:提供对外部功能的注册与调用能力,LLM 通过 MCP 调用对应工具。
    • Prompt 模板定义与渲染:支持以统一格式渲染与返回提示模板,便于 LLM 的交互模式自定义。
    • JSON-RPC 通信:服务器通过 JSON-RPC 处理请求/响应,便于前后端解耦。
    • 会话与能力声明:支持多会话与能力宣告,便于 LLM 客户端理解可用能力。
    • 多传输协议准备:提供 HTTP/标准输入输出等基础通信能力,以适配不同部署场景。
  • 安装步骤

    • 使用目标二进制:将仓库编译为包含 MCP 子命令的可执行文件,例如通过 cargo 构建获得 axon 二进制,并执行 mcp 子命令来启动 MCP 运行时。
    • 运行前提:确保本地运行环境具备 Rust 编译环境、必要的数据库/缓存/向量存储后端可用(如 Postgres、Redis、Qdrant 等,若你要完整复现 Axon 的全栈能力)。
    • 启动示例(命令由 MCP 的实现端提供的服务器命令决定,示例性描述,不作为代码块展示):
      • 构建并启动 MCP HTTP 服务:运行相应的可执行文件,传入 mcp 子命令来启动 MCP HTTP 服务监听。
      • 也可使用标准输入/输出模式启动 MCP 运行时。
  • 服务器配置(MCP 客户端需配置的启动信息) 说明:MCP 客户端需要知道 MCP 服务器的启动命令及参数,以建立连接并进行后续交互。下列为一个符合仓库实现的示例配置描述,实际字段可由 MCP 配置系统读取:

    • server_name: "axon-mcp-http"
    • command: "axon"
    • args: ["mcp"]
    • 说明:以上配置表示 MCP 服务器以 Axon 二进制启动,并通过 MCP 子命令暴露 HTTP JSON-RPC 服务,供 MCP 客户端进行资源读取、工具调用与提示渲染等操作。
    • 可选环境变量(env)示例(如需对运行环境进行额外配置):
      • AXON_MCP_ARTIFACT_DIR: 指定 MCP artifact 输出根目录
      • 其他以服务需要为准的环境变量 注:MCP 客户端只需要知道服务器的名称、启动命令与参数,具体连接地址、认证方式等由 MCP 客户端实现与部署环境决定,客户端本身不需要代码。
  • 基本使用方法

    • 启动 MCP 服务器后,客户端通过 JSON-RPC 与服务器通信,完成资源读取、工具执行、以及 Prompt 获取与渲染等需求。
    • 使用前请确保服务器已正确暴露 MCP 端点,且服务器具备所需要的资源、工具及提示模板。
    • 客户端侧通过标准化的接口向 MCP 服务器发送请求,服务器返回相应的 JSON-RPC 响应或通知。
  • 备注

    • 项目核心实现位于 crates/mcp、server.rs 等模块,包含 HTTP 服务运行、Schema 定义、以及运行时绑定逻辑,确保 MCP 客户端可以通过 HTTP 方式进行交互。
    • 运行时设计强调对资源、工具、提示的统一管理,以及对会话、能力的声明,便于 LLM 客户端在对话中访问上下文信息与功能。

服务器信息