使用说明(Markdown 格式)
-
项目简介
- 这是一个基于 MCP 的后端服务实现,面向 LLM 客户端提供统一的上下文服务,核心能力包括资源/记忆的管理、工具的方法注册与执行,以及对 Prompt 模板的定义与渲染。服务端通过 JSON-RPC 与客户端通信,当前实现以标准输出传输(Stdio)为默认传输方式,便于嵌入到本地开发环境或容器化部署。
-
主要功能点
- 资源与记忆管理:本地化的内存索引,支持对历史会话的记忆记忆、检索与更新。
- 工具注册与执行:注册多种工具,LLM 可以通过 MCP 服务器执行外部功能。
- Prompt 模板渲染:提供 Prompt/模板的渲染与输出,支持自动化工作流和可自定义的交互模式。
- MCP 服务端实现:使用 MCP 服务器架构,通过 JSON-RPC 进行请求/响应,具备会话管理、能力声明与安全可扩展性。
- 存储与嵌入:本地向量检索、嵌入生成、主题词/触发词提取等能力,全部落地在本地磁盘与 SQLite 数据库。
- 传输能力:尽可能支持多种传输(当前实现示例为 Stdio,未来可扩展为 SSE/WebSocket 等)。
-
安装步骤
- 安装必要的运行环境
- 安装 Node.js(推荐 LTS 版本),以及 npm/yarn。
- 获取代码
- 将仓库克隆到本地,进入仓库根目录。
- 安装依赖
- 在根目录执行安装命令,等待依赖安装完成(node_modules 下载可能需要一些时间)。
- 启动 MCP 服务器
- 进入 mcp_server 目录,执行 node context-server.js(或在根路径执行等效命令,具体路径以实际部署为准)。
- 服务器启动后,会通过标准输入/输出进行通信,向 MCP 客户端暴露服务能力。
- 配置 MCP 客户端
- MCP 客户端需知道服务器的名称、启动命令及参数以建立连接。以下给出客户端配置示例(JSON 形式,便于拷贝到配置文件中): { "serverName": "OpenCode-Semantic-Memory-MCP", "command": "node", "args": [ "./mcp_server/context-server.js" ], "description": "Opencode MCP 语义上下文服务器,使用 Stdio 传输,提供资源/工具/提示模板等能力" } 说明:
- serverName 用于客户端识别该 MCP 服务器的名称。
- command 和 args 指定启动 MCP 服务器的命令及参数,路径以部署位置为准。
- 该配置是 MCP 客户端所需的连接信息之一,不需要在服务端进行额外的改动。
- 安装必要的运行环境
- 基本验证
- 向 MCP 客户端发送 JSON-RPC 请求,如读取资源、调用工具、获取 Prompts 等,确保服务器返回符合 MCP 的 JSON-RPC 响应格式。
-
基本使用方法
- 启动后,客户端通过 JSON-RPC 发送请求到 MCP 服务器,常见的请求包括:
- 读取/管理 Resources(资源/记忆管理)
- 注册并执行 Tools(工具注册与调用)
- 获取并渲染 Prompt 模板(Prompts)
- 生命周期管理:服务器端负责会话管理、能力声明,并可扩展到多传输协议(如 Stdio、SSE、WebSocket)以适应不同的部署场景。
- 安全与扩展:服务器实现中包含本地化存储、向量化检索、嵌入等模块,且具备对接外部工具的能力,便于按需扩展能力。
- 启动后,客户端通过 JSON-RPC 发送请求到 MCP 服务器,常见的请求包括:
-
备注
- 该实现包含若干 MCP 服务端子模块(如 semantic memory、code mode、memory index、embedding、trigger extraction 等),从结构上看覆盖了 MCP 服务器的核心能力:资源/内存管理、工具执行和提示模板渲染,以及会话与能力声明等。
信息
分类
AI与计算