Corpus Intelligence MCP Server
使用说明(Markdown格式)
-
项目简介
- 该仓库实现了一个完整的 MCP 服务器端,负责暴露资源、注册并执行工具、渲染 Prompt,并通过 MCP 协议向 LLM 客户端提供标准化的上下文服务与能力声明。
-
主要功能点
- MCP 服务器核心:实现资源/工具/提示的标准化管理与交互,提供 JSON-RPC 请求/响应能力。
- 工具注册与执行:将 22+ 工具对接至 MCP 服务,支持工具并发调度、权重与阈值控制,以及工具结果聚合。
- Prompts 定义与渲染:定义并暴露 Prompt 模板,支持不同交互模式(常规、GraphRAG 等)。
- 会话与能力声明:维护会话上下文、请求跟踪,以及对客户端的能力宣告。
- 多传输支持:内置 Stdio 传输入口用于直接进程通信,另提供 SSE 接口以便 Claude Desktop 等客户端以事件流方式连接。
- 资源与数据管线:集成向量存储、图数据库、时间序列分析等模块,提供数据访问与分析能力。
- 服务暴露:通过 /sse、/messages、/health、以及多种 API 端点向客户端提供服务。
-
安装步骤
- 环境准备:请确保节点环境搭建完毕(Node.js 环境,建议使用 Node 14+/16+)。
- 获取依赖:在仓库根目录或包含 MCP 服务的目录中执行依赖安装,例如 npm ci 或 npm install。
- 构建与启动:根据项目配置构建方案运行构建脚本(如 npm run build),然后启动 MCP 服务器入口(入口在 mcp-server 目录下的入口脚本,如 index.ts/ dist 输出)。服务器启动后应监听可通过 SSE(/sse)或 STDIO(stdio)端口访问的 MCP 服务。
- 组件依赖:确保后端所依赖的其他微服务就绪(如 embeddings-service、graph-service、analysis-service),以便 MCP 服务器能够正常调度工具并与其他服务协同工作。
-
服务器配置(MCP 客户端使用示例,JSON 格式,不包含代码) { "server_name": "corpus-intelligence", "description": "MCP 后端服务,暴露资源/工具/提示并通过 MCP 协议与客户端通信", "command": "node", "args": ["dist/mcp-server/index.js"], "transport": "stdio", "notes": "实际部署时请以编译输出路径为准,若直接以 ts-node 运行,请将路经替换为对应入口" }
-
基本使用方法
- 启动 MCP 服务后,客户端需使用 MCP 协议对接,最常用的接入方式是通过 Claude Desktop 的配置,将 MCP 服务器 URL 指向 http://127.0.0.1:3001/sse。
- 客户端配置示例(用于 Claude Desktop,非需要修改服务端代码):
- URL: http://127.0.0.1:3001/sse
- 客户端接入后,开发者可以通过 MCP 的 JSON-RPC 请求读取资源、调用工具、获取 Prompt,进而让 LLM 客户端在本地或云端环境中进行推理和交互。
- 如需自测,确保以下端点可用:/health、/sse、/messages,并可通过 SSE 获取服务器事件流。
-
备注
- 该 MCP 服务器实现包含丰富的工具集成、图知识图谱、分析服务对接、以及 Gravity 框架支撑,适合构建以上下文为核心的 LLM 应用后端。
- 为确保对接顺畅,建议在本地环境中按照仓库提供的 quick start 指引先启动相关依赖服务,再启动 MCP 服务器。