brain-mcp
使用说明(Markdown 格式)
-
项目简介 brain-mcp 是一个完整的 MCP 服务器实现,旨在为大语言模型客户端提供标准化的上下文服务。它托管会话资源、注册并执行工具、并提供可定制的 Prompt 模板渲染能力,所有核心流程通过本地组件完成,降低云依赖与成本。
-
主要功能点
- 资源与数据管理:本地存储会话数据、向量嵌入、摘要等,支持 DuckDB、LanceDB 等本地数据库与向量库。
- 工具注册与执行:内置 25+ MCP 工具集合,支持对话检索、摘要、推理、对话生成等多模态操作,所有工具通过 MCP 的统一接口注册。
- Prompt 与渲染:基于汇总数据与 domain 分类的提示与结构化输出,便于 LLM 客户端接入并获取所需上下文。
- 本地化与隐私保护:默认 100% 本地运行,数据不离开设备,支持离线工作与本地嵌入模型。
-
安装步骤
- 通过 Python 包管理器安装 Brain-MCP(如环境已配置 Python 3.11+)。
- 根据需要执行初始化流程,发现本地聊天源并生成 brain.yaml 配置:
- brain-mcp init
- brain-mcp init --full
- 选择数据源并导入/嵌入数据:
- brain-mcp ingest
- brain-mcp embed
- 启动 MCP 服务器:
- brain-mcp serve
- 或以 Python 直接运行服务器入口:python -m brain_mcp.server
- 使用 MCP 客户端连接并通过 JSON-RPC 调用服务器提供的资源、工具、Prompts。
-
服务器配置(MCP 客户端所需信息) 下面给出配置示例,展示如何告知 MCP 客户端如何启动并连接到服务器。请注意该配置为 JSON 格式,包含服务器名称、启动命令与参数等。此处信息基于仓库实现细节给出,直接用于客户端配置注释,不是服务端代码。 { "server_name": "brain", "command": "brain-mcp", "args": ["serve"] } 说明:
- server_name: MCP 服务器的对外标识名称,默认值为 brain。客户端在展示与日志中会看到该名称。
- command: 启动服务器的命令,即在本项目中运行 Brain MCP 服务端的可执行入口。
- args: 启动参数,此处使用 serve,表示以标准输入/输出传输(stdio)启动服务器。在实现中,服务器也可扩展支持其他传输(如 SSE、WebSocket),具体客户端连接方式请依据实际部署选择。
-
基本使用方法
- 配置阶段:使用 brain-mcp init --full 进行源发现、导入与嵌入,生成 brain.yaml 配置。
- 运行阶段:使用 brain-mcp serve 启动 MCP 服务器(或 python -m brain_mcp.server 直接启动)。
- 客户端交互:MCP 客户端通过 JSON-RPC 调用服务器提供的资源、工具和 Prompts,获取结构化响应与上下文信息。
- 生产环境建议:在本地文件系统完整性、向量数据库与摘要管线就绪的前提下运行,确保在生产环境中对并发与并行请求有正确的限流策略。
-
基本限制与注意事项
- 该实现偏向本地化工作流,依赖 DuckDB、LanceDB、嵌入模型等本地组件,云端 API 仅在某些摘要/推理场景中可选使用。
- MCP 客户端若需要可与不同传输协议协同工作,请参考服务器实现中的 transport 支持能力。