Sardis MCP 服务器
使用说明
- 项目简介 Sardis 提供一个 MCP 服务器实现,核心职责是通过标准化的 MCP 协议向 LLM 客户端提供可访问的资源(Resources)、可注册并执行的工具(Tools)以及可渲染的 Prompt 模板(Prompts),并通过 JSON-RPC 协议进行通信。服务器负责会话管理、能力声明,以及对多种传输协议(如 Stdio、SSE、WebSocket)的支持,确保向 AI 应用提供安全、可扩展的上下文服务能力。
- 主要功能点
- 资源管理:托管和管理可供 LLM 客户端访问的数据资源(Resources),便于推理与上下文注入。
- 工具注册与执行:注册外部功能/工具,LLM 客户端可通过统一的接口调用这些工具。
- Prompt 模板:定义、渲染和管理可定制的 Prompt 模板,支持多种对话模式。
- JSON-RPC 通信:服务器与客户端通过标准的 JSON-RPC 协议进行请求/响应交互。
- 会话与能力声明:维护会话、声明服务器能力,并对外暴露可用的资源、工具与模板集合。
- 多传输协议支持:提供多种传输方式以适配不同客户端需求(如 STDIO、SSE、WebSocket)。
- 安装步骤
- MCP 服务器端:通过 Sardis 的 MCP 服务包启动即可,通常命令形式为 npx @sardis/mcp-server start。
- 其他依赖和本地环境请按仓库提供的文档配置,确保 Node 环境就绪。
- 服务器配置
MCP 客户端在连接 MCP 服务器前需要提供客户端配置信息,作为示例(JSON)如下:
{
"server_name": "sardis",
"command": "npx",
"args": ["@sardis/mcp-server", "start"]
}
注释说明:
- server_name:在你的客户端配置中用于标识该 MCP 服务器的名称,便于在多服务器场景中区分。
- command、args:启动 MCP 服务器的命令及参数,客户端通过该信息来启动并连接 MCP 服务器。 说明:该配置来自仓库的快速集成示例,客户端通过该命令启动 MCP 服务器,并与 MCP 服务端建立 JSON-RPC 交互。
- 基本使用方法
- 启动 MCP 服务器:使用上述启动命令在支持的环境中启动 MCP 服务端。
- 连接与交互:在 LLM 客户端(如 Claude Desktop、Cursor、LangChain 等集成点)中配置 MCP 服务器名称与启动参数后,即可通过 JSON-RPC 调用读取资源、执行工具、获取 Prompts 等能力。
- 资源/工具/模板的管理:通过 MCP 服务器暴露的接口进行资源注册、工具注册、Prompts 注册与渲染等操作;服务器端负责策略、权限和会话管理。
- 安全与扩展:结合 MCP 的能力声明,按需启用多传输协议与安全策略,确保上下文服务在 LLM 应用中的稳定可靠。