Von MCP 服务端 使用说明
-
项目简介
- Von 项目中实现了基于 MCP 的服务端框架,核心职责是对“资源(Resources)”的访问、工具(Tools)的注册与执行、以及 Prompt 模板的定义与渲染进行统一管理,并通过 JSON-RPC 与客户端通信,提供会话管理、能力声明及多传输协议的支持,面向 LLM 应用提供可扩展的上下文服务。
-
主要功能点
- 资源与文本管理:托管可被 LLM 读取的数据资源与文本片段,支持谓词/关系的查询与编辑。
- 工具注册与执行:注册外部工具,并通过 MCP 协议将调用请求路由给相应实现,支持工具调用追踪与上下文注入。
- 提示渲染与模板:定义并渲染 Prompt 模板,能根据上下文动态改写提示文本。
- JSON-RPC 通信:服务器端实现了以标准化 JSON-RPC 的请求/响应流来交互,方便 LLM 客户端进行远程调用。
- 会话与能力宣告:对当前会话进行管理,并提供服务器能力声明(可用工具、资源及模型能力等)。
- 多传输协议支持:设计目标是支持如 Stdio、SSE、WebSocket 等传输协议,以适应不同运行环境。
- 安全与可扩展性:强调上下文框架的安全性、模块化与易于扩展,方便集成到现有 LLM 工作流。
-
安装步骤
- 克隆仓库并进入项目目录
- 安装依赖(Python 环境、所需数据库/依赖,参考项目文档)
- 根据本地环境配置数据库与必要的中间件
- 启动 MCP 服务器(见下方服务器配置说明,按你的环境选择合适的启动方式)
- 启动后,客户端即可通过 MCP 的 JSON-RPC 接口进行资源读取、工具调用与 Prompt 获取等操作
-
服务器配置(MCP 客户端需要:启动命令与参数) 说明:以下为用于 MCP 客户端对接的配置信息描述,采用 JSON 结构,包含 server name、启动命令及参数等字段,请将其用于 MCP 客户端的连接配置。注意,本段为配置描述,不作为代码片段直接执行。
{ "server_name": "Von MCP Server", "command": "python -m src.backend.mcp_server.runner", "args": [ "--transport", "websocket", "--host", "0.0.0.0", "--port", "8000" ], "description": "Von 的 MCP 服务端入口(启动后通过 JSON-RPC 对外暴露资源、工具与 Prompt,支持 WebSocket 传输,便于与 LLM 客户端集成)。", "notes": "具体实现入口、端口与传输模式可根据部署环境调整,客户端仅需知道服务器名称与连接参数即可建立通信。" }
-
基本使用方法
- 连接与请求
- 客户端通过 MCP JSON-RPC 请求向 Von 服务器发起读取资源、执行工具、获取 Prompt 等操作,服务器返回标准的 JSON-RPC 响应。
- 会话与能力
- 启动时服务器声明自身能力,客户端可依据能力进行能力协商,确保调用的资源与工具在其范围内。
- 安全性
- 服务器应实现鉴权与访问控制,确保资源与工具的调用符合权限策略,避免敏感信息暴露。
- 拓展性
- 支持新增 Resources、Tools、Prompts;通过插件化方式接入新的传输协议或外部工具。
- 连接与请求
-
进一步使用参考
- 仓库的 MCP 相关模块包含工具目录、网关、编排器等实现,以及对 RAG、文本关系、提示系统等的集成,可结合你现有的 LLM 流程使用。
信息
分类
AI与计算