使用说明内容(Markdown格式)
-
项目简介 SeerLord MCP 服务端是一个面向 LLM 客户端的后端框架,遵循 MCP(Model Context Protocol)标准,核心职责包括托管并管理资源、注册并执行工具、定义和渲染 Prompt 模板,以及通过 JSON-RPC 与客户端进行请求-响应通信。系统支持异步后端、插件化能力、会话管理以及多种传输协议,旨在为大语言模型应用提供可扩展、可控的上下文与功能服务。
-
主要功能点
- MCP 基础能力
- 以 JSON-RPC 形式处理资源读取、工具调用、Prompts 获取等请求。
- 会话管理与能力声明,支持跨插件协作的上下文服务。
- 资源、工具与 Prompts 管理
- 资源(Resources)托管与访问能力,工具(Tools)注册与执行,以及 Prompt 模板的定义与渲染。
- 插件生态
- 丰富的内置插件(如 markdown 转换、新闻、漫画生成、知识图谱等)通过 MCP 服务暴露工具和能力。
- 多传输协议与 streaming
- 支持 Stdio、SSE、WebSocket 等传输模式,方便与不同类型的客户端对接。
- 安全与运维
- 包含会话隔离、权限声明、以及基于令牌与 API Key 的安全管控(在 API 层和 MCP 层均有实现要素)。
- 存储与检索
- 集成向量存储(Qdrant)与图数据库(Neo4j)等,提供 RAG、GraphRAG 等能力,支撑复杂的上下文推理与知识推断。
- MCP 基础能力
-
安装步骤
- 先决条件
- Python 3.11+、Node.js(如需 Admin 控制台)、PostgreSQL(可选,用于持久化)、Qdrant(可选,用于向量存储)、Neo4j(可选,用于图知识库)等。
- 安装
- 使用 Poetry 或 pip 安装依赖(仓库中提供了多环境的依赖分布,按需安装)。
- 启动
- 直接运行后端服务入口(如使用 readme 中给出的方式):
- python run.py
- 或者 python -m server.main
- 直接运行后端服务入口(如使用 readme 中给出的方式):
- 配置
- 复制并修改 .env(请按需配置 LLM 提供商、数据库、向量存储等关键参数)。
- MCP 与 API 的鉴权与访问 Key 通过环境变量与请求头进行管理。
- 先决条件
-
服务器配置(MCP 客户端需提供的启动信息) 说明:以下为示例配置,实际使用时请根据环境调整命令与参数。MCP 客户端需要的仅是 server name、command、args,其他字段可由客户端自行处理。
- server_name: "seerlord-mcp-server"
- command: "python"
- args: ["run.py"] 备注:该配置表示通过 Python 解释器执行 run.py 来启动 MCP 服务器。若你使用其它入口,请保持 server_name 一致并将命令指向正确的启动入口。
-
基本使用方法
- 客户端通过 JSON-RPC 向 MCP 服务器发起请求(如读取资源、调用工具、获取 Prompt 等),服务器返回标准 JSON-RPC 响应或通知。
- 使用多插件协作的能力时,客户端可指定目标工具或目标插件,服务器将通过注册的工具、插件实现统一的上下文交换和能力调用。
- 如需调试,可查看健康接口、文档接口及日志输出,确保 MCP 流程与插件编排按预期工作。
-
额外说明
- 本仓库包含完整的 MCP 服务端实现及多种 MCP 子服务(Markdown 转换、新闻、知识图谱、PPT/DOCX/PDF 转换、漫画生成、屏幕输出流等),以实现端到端的 MCP 服务能力。
- 如需深入自定义,请参考各模块的 MCP 服务注册、请求处理及工具实现部分,了解如何扩展资源、工具与提示模板。
信息
分类
AI与计算