Aura MCP Server(Rust实现)
使用说明(简要且易操作的步骤,便于快速上手):
- 项目简介 Aura 提供一个 MCP 服务器实现,核心职责是向 LLM 客户端提供上下文信息与能力:托管资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),通过 JSON-RPC 2.0 与客户端通信,支持通过标准输入输出等传输通道进行交互,以及会话管理与安全控制。
- 主要功能点
- 资源管理:集中存储和访问用于上下文的资源数据
- 工具注册与调用:向 LLM 客户端暴露可执行的外部功能
- Prompt 模板定义与渲染:提供可定制的对话/任务模板
- JSON-RPC 2.0 通信:客户端通过标准的 JSON-RPC 请求/响应进行交互
- 会话与能力声明:服务器端维持会话状态并声明自身能力
- 多传输协议支持:包括标准输入输出(stdio)、SSE、WebSocket 等,确保在不同环境下可接入
- 安装步骤
- 安装 Rust 工具链(建议使用稳健版本的 Rust,确保兼容性)
- 获取源码并编译:
- 从 GitHub 克隆仓库并进入项目目录
- 使用 cargo build --release 构建发布版本
- 启动 MCP 服务:
- 通过 Aura 二进制的 mcp 子命令启动服务器(即 aura mcp),以便对接 MCP 客户端
- 配置 MCP 客户端(示例配置,具体按实际运行环境调整) 服务器端在客户端的配置中通常通过启动命令和参数进行绑定,示例配置如下: { "mcpServers": { "aura-vcs": { "command": "aura", "args": ["mcp"] } // 如需增加其它 MCP 服务,可在此扩展 } // 该配置用于 MCP 客户端连接 Aura 的 MCP 服务 } 说明:上述配置中 server name 为 aura-vcs,command 指向 Aura 的可执行文件,args 指定启动 MCP 服务的子命令列表。
- 基本使用方法
- 启动 MCP 服务后,MCP 客户端通过指定的传输通道(通常为 stdio)向 Aura 服务器发送 JSON-RPC 请求,如读取资源、调用工具、获取 Prompt 等,Aura 服务器返回 JSON-RPC 响应。
- 通过 Aura 提供的工具与资源接口,LLM 可以在对话中查询、执行外部功能,以及获取模板化的上下文。
- 通过合适的客户端配置与传输协议(stdio/SSE/WebSocket),实现与服务器的稳定通信与上下文协作。