ai-rulez MCP Server
使用说明(Markdown 格式)
-
项目简介 ai-rulez 提供一个基于 Model Context Protocol 的后端服务器,用于向大型语言模型(LLM)客户端提供可管理的资源、工具、以及可渲染的提示模板等上下文信息。核心在于通过统一的 MCP 接口,处理资源访问、工具调用、以及提示模板的获取与渲染,便于将复杂的开发环境信息以结构化方式暴露给 AI 助手。
-
主要功能点
- 资源与内容托管:集中管理规则、上下文、技能、以及域内容等资源,方便 LLM 调用与渲染。
- 工具注册与调用:注册并暴露外部功能,LLM 可以通过 JSON-RPC 调用外部工具。
- Prompt 模板定义与渲染:支持多种输出模板,方便生成适配不同工具的提示。
- 跨传输协议支持:通过标准 MCP 传输实现,易于接入到不同的客户端与中间件。
- JSON-RPC 通信:后端与客户端使用统一的 JSON-RPC 请求/响应格式进行交互。
- 会话与能力声明:实现会话管理、能力暴露,以及对后端资源的可扩展访问。
-
安装与运行
- 构建并运行服务器:
- 构建当前仓库中的可执行程序后运行服务器命令,例如通过仓库提供的命令行入口启动 MCP 服务。
- 运行方式示例(基于仓库实现的入口点):
- 启动命令: ai-rulez mcp
- 传输模式默认使用 stdio,客户端可通过该传输方式与服务器建立连接
- 服务器启动后,客户端可通过 MCP 协议向服务器发起读取资源、调用工具、获取 Prompts 等请求,服务器返回标准的 JSON-RPC 响应。
- 构建并运行服务器:
-
服务器配置(供 MCP 客户端在本地准备连接时使用的 JSON 配置示例) { "servers": [ { "name": "ai-rulez", "command": "npx", "args": ["-y", "ai-rulez@latest", "mcp"], "transport": "stdio", "enabled": true } ] }
-
基本使用方法
- 启动服务器后,MCP 客户端可通过 JSON-RPC 调用读取资源、执行工具、获取 Prompts 等能力。
- 客户端与服务器之间通过标准的 MCP JSON-RPC 请求响应进行通信,服务器负责资源和工具的注册、执行与内容渲染等后台逻辑。
- 服务器可通过各种传输协议接入,如 stdio,WebSocket 等,以适配不同的部署场景。
-
备注
- 该实现包含了对 MCP 交互的后端实现与相关测试,能够在本地或集成环境中提供可用的 MCP 服务能力。