使用说明(Markdown 格式)

  • 项目简介

    • 这是一个基于 MCP 的后端服务实现,面向 LLM 客户端提供统一的上下文服务,核心能力包括资源/记忆的管理、工具的方法注册与执行,以及对 Prompt 模板的定义与渲染。服务端通过 JSON-RPC 与客户端通信,当前实现以标准输出传输(Stdio)为默认传输方式,便于嵌入到本地开发环境或容器化部署。
  • 主要功能点

    • 资源与记忆管理:本地化的内存索引,支持对历史会话的记忆记忆、检索与更新。
    • 工具注册与执行:注册多种工具,LLM 可以通过 MCP 服务器执行外部功能。
    • Prompt 模板渲染:提供 Prompt/模板的渲染与输出,支持自动化工作流和可自定义的交互模式。
    • MCP 服务端实现:使用 MCP 服务器架构,通过 JSON-RPC 进行请求/响应,具备会话管理、能力声明与安全可扩展性。
    • 存储与嵌入:本地向量检索、嵌入生成、主题词/触发词提取等能力,全部落地在本地磁盘与 SQLite 数据库。
    • 传输能力:尽可能支持多种传输(当前实现示例为 Stdio,未来可扩展为 SSE/WebSocket 等)。
  • 安装步骤

    1. 安装必要的运行环境
      • 安装 Node.js(推荐 LTS 版本),以及 npm/yarn。
    2. 获取代码
      • 将仓库克隆到本地,进入仓库根目录。
    3. 安装依赖
      • 在根目录执行安装命令,等待依赖安装完成(node_modules 下载可能需要一些时间)。
    4. 启动 MCP 服务器
      • 进入 mcp_server 目录,执行 node context-server.js(或在根路径执行等效命令,具体路径以实际部署为准)。
      • 服务器启动后,会通过标准输入/输出进行通信,向 MCP 客户端暴露服务能力。
    5. 配置 MCP 客户端
      • MCP 客户端需知道服务器的名称、启动命令及参数以建立连接。以下给出客户端配置示例(JSON 形式,便于拷贝到配置文件中): { "serverName": "OpenCode-Semantic-Memory-MCP", "command": "node", "args": [ "./mcp_server/context-server.js" ], "description": "Opencode MCP 语义上下文服务器,使用 Stdio 传输,提供资源/工具/提示模板等能力" } 说明:
      • serverName 用于客户端识别该 MCP 服务器的名称。
      • command 和 args 指定启动 MCP 服务器的命令及参数,路径以部署位置为准。
      • 该配置是 MCP 客户端所需的连接信息之一,不需要在服务端进行额外的改动。
  1. 基本验证
    • 向 MCP 客户端发送 JSON-RPC 请求,如读取资源、调用工具、获取 Prompts 等,确保服务器返回符合 MCP 的 JSON-RPC 响应格式。
  • 基本使用方法

    • 启动后,客户端通过 JSON-RPC 发送请求到 MCP 服务器,常见的请求包括:
      • 读取/管理 Resources(资源/记忆管理)
      • 注册并执行 Tools(工具注册与调用)
      • 获取并渲染 Prompt 模板(Prompts)
    • 生命周期管理:服务器端负责会话管理、能力声明,并可扩展到多传输协议(如 Stdio、SSE、WebSocket)以适应不同的部署场景。
    • 安全与扩展:服务器实现中包含本地化存储、向量化检索、嵌入等模块,且具备对接外部工具的能力,便于按需扩展能力。
  • 备注

    • 该实现包含若干 MCP 服务端子模块(如 semantic memory、code mode、memory index、embedding、trigger extraction 等),从结构上看覆盖了 MCP 服务器的核心能力:资源/内存管理、工具执行和提示模板渲染,以及会话与能力声明等。

信息

分类

AI与计算