Local Brain MCP 服务端

  • 项目简介 该仓库实现了一个 MCP 服务端,用于 Local Brain 的 LLM 集成场景。它通过 MCP 提供对资源、工具、任务、笔记、项目等的统一访问和操作能力,便于 LLM 客户端在本地环境中获取上下文信息并执行外部功能。

  • 主要功能点

    • 提供资源与上下文:能够返回 Brain、Projects、Todos、Notes、Dump 等上下文信息,方便 LLM 构建对话上下文。
    • 注册与执行工具:实现了多组工具(Context、Dump、Todo、Note、Project 等)以便 LLM 调用外部功能,如创建任务、查询待办、操作笔记、管理项目等。
    • Prompts 渲染与管理:通过工具组合支持统一的提示模板和内容渲染,帮助对话系统产生更佳的上下文。
    • JSON-RPC 通信:以 MCP 标准的 JSON-RPC 形式暴露能力,便于前端 LLM 客户端进行请求和接收响应。
    • 会话与缓存:实现会话管理、缓存策略,提升性能与一致性。
    • 多传输通道支持:实现以标准输入输出(stdio)为主的传输方式,具备扩展为 SSE/WebSocket 的潜力。
  • 安装与运行步骤

    1. 构建 MCP 服务器二进制
      • 使用 Go 语言构建,对应的 MCP 服务器代码位于 mcp 目录下,执行构建以生成可执行文件。
    2. 启动服务器
      • 运行生成的 MCP 服务器二进制,默认通过标准输入输出(stdio)进行 MCP 协议通信。
    3. 连接客户端
      • MCP 客户端通过配置连接到该服务器,使用 JSON-RPC 进行请求与响应。
  • 服务器配置(给 MCP 客户端的配置示例,JSON 格式,包含 server name、command、args 等信息) { "server_name": "local-brain-mcp", "command": "/path/to/local-brain-mcp", // MCP 服务器可执行文件路径 "args": [], // 运行时参数(若无,可留空) "description": "Local Brain MCP server providing resources, tools, and prompts for LLM integration", "transport": "stdio" // 传输通道类型,当前实现以 stdio 为主,可扩展为 SSE/WebSocket 等 }

  • 基本使用方法

    • 启动后,LLM 客户端通过配置加载上述 JSON 信息,启动后客户端与 MCP 服务器通过 JSON-RPC 进行请求,例如查询资源、调用工具、获取 Prompt 等。
    • 服务器负责对话会话的上下文管理、能力声明,以及在需要时进行上下文渲染与数据聚合,确保 LLM 获得一致且可扩展的上下文服务。
  • 其他要点

    • 该实现对 Local Brain 的内部结构(Brain、Projects、Todos、Notes、Dump 等)有较全面的封装,便于扩展更多工具与上下文。
    • 服务器端实现了多组工具集成(如上下文获取、转存、项目与笔记管理等),并通过 session 进行缓存与状态管理。
    • 当前传输以 stdio 为主,后续可以拓展为 SSE、WebSocket 等,方便在不同环境中使用。
  • 适用场景

    • 需要一个本地化、可扩展的 MCP 服务端来为 LLM 客户端提供丰富的工作上下文与外部功能访问。
    • 希望通过统一的工具与上下文接口,简化 LLM 与本地应用之间的集成工作。

服务器信息