Personal Knowledge MCP
使用说明(Markdown 格式)
-
项目简介
- Personal Knowledge MCP 是一个面向 AI 助手的后端服务,基于 MCP(Model Context Protocol)实现,核心职责是向 LLM 客户端提供上下文信息和能力,包括资源的访问、工具的注册与执行、以及可定制的提示模板。服务器端负责会话管理、能力声明,以及对多种传输协议的支持,确保与 Claude Code、Cursor 等客户端的安全、可扩展交互。
-
主要功能点
- MCP 原生架构:面向 AI 助手的资源管理、工具执行和 Prompt 渲染,提供标准化的 JSON-RPC 接口。
- 资源管理与数据访问:能托管与查询代码知识、文档等知识资源,并支持本地和私有源的索引与检索。
- 工具注册与调用:注册多种 MCP Tools,LLM 可以通过工具调用外部功能。
- Prompt 模板与交互模式:定义与渲染 Prompt 模板,支持自定义的对话与推理模式。
- 会话与能力声明:服务端管理会话、能力集(如是否支持资源、Prompts、Tools 等)。
- 多传输协议:支持 stdio、HTTP/SSE、WebSocket 等传输方式,方便不同客户端接入。
- 本地嵌入与图数据库集成:内置/可选的本地嵌入提供商(Transformers.js、Ollama、OpenAI API)以及 FalkorDB/ChromaDB 的向量与图谱能力,支持私有仓库索引。
- 安全与扩展性:Bearer Token、OIDC、速率限制、插件化工具与服务层,适合企业级使用。
-
安装步骤
- 需要 Bun 1.0+、Docker Desktop、以及 Git。
- 克隆仓库并安装依赖,然后按 README 指示配置环境变量与数据库服务,启动包含 ChromaDB 和 FalkorDB 的 Docker 容器,最后构建并运行 MCP 服务器。
- 具体步骤请参考仓库的 README,包含初始化日志、索引仓库、构建、迁移、以及 Claude Code 的集成配置。
-
服务器配置(MCP 客户端所需的配置信息)
- MCP 客户端需要配置一个 MCP 服务器以建立连接。以下信息以 JSON 格式给出描述,供客户端创建连接时参考:
- server name: personal-knowledge
- command: bun
- args: ["run", "dist/index.js"]
- env(示例,可按实际环境替换):
- OPENAI_API_KEY: "<你的 OpenAI API Key(可选,如果使用本地嵌入可为空)>"
- GITHUB_PAT: "<用于私有仓库访问的 PAT,可选>"
- FALKORDB_HOST: "localhost"
- FALKORDB_PORT: "6380"
- FALKORDB_PASSWORD: "<FalkorDB 密码>"
- 说明:上述字段用于 MCP 客户端在启动后连接到 MCP 服务器时的参数配置。服务器端实现会对传入的参数进行安全校验,确保连接的安全性与可访问性。客户端还会使用这些信息确定资源、工具、以及提示模板的获取与执行能力。
-
基本使用
- 启动依赖:确保本地 ChromaDB 与 FalkorDB 服务就绪(通过 Docker Compose 启动)。
- 集成使用:在 Claude Code、Cursor 等支持 MCP 的客户端中,将 server 配置为上面的名称与启动信息,进行语义检索、依赖/架构分析、以及调用 MCP Tools。
- 常用操作包括:资源索引、图谱构建、嵌入提供者切换、以及工具调用等,具体命令与工具列表可参考仓库的工具实现与文档。