Corpus Intelligence MCP Server
使用说明内容(Markdown格式)
-
项目简介
- Corpus Intelligence MCP Server 是一个基于 MCP 规范的后端服务,旨在为大语言模型提供可查询的上下文资源、可调用的工具以及可渲染的提示模板,帮助 LLM 客户端在对话中获得一致、可扩展的上下文信息与功能。
-
主要功能点
- MCP 服务实现:实现标准的 MCP 请求/响应流程,提供资源读取、工具调用、Prompt 获取等能力声明与执行流。
- 工具与资源管理:托管22+工具集合,支持 gravity 调度、以及与向量检索、图数据库等其他服务的协作。
- Prompts 与渲染:提供 Prompt 模板及渲染逻辑,支持灵活的对话模式。
- 会话管理与跨传输:会话上下文保持、跨进程传输支持(如 Stdio、SSE、WebSocket 等传输协议的适配)。
- 服务器端集成:与嵌入服务、图数据库、分析服务等组件集成,形成端到端的 MCP 后端生态。
-
安装与运行(简要步骤)
- 克隆并安装依赖:在仓库根目录执行安装命令安装依赖。
- 启动服务:运行 mcp-server 相关入口,监听 MCP 请求。
- 连接客户端:MCP 客户端通过指定的传输协议(如 stdio 或 SSE)连接服务器,进行资源读取、工具调用、模板获取等请求。
-
服务器配置(MCP 客户端需要配置,以下描述由 MCP 客户端使用,服务器端示例信息仅供参考)
- server name: corpus-intelligence
- command: node
- args: ["/path/to/mcp-server/dist/index.js"] // 实际路径请按部署环境填写
- 说明:服务器端实现了 MCP 服务端入口,客户端在连接时应指向该服务器的启动命令与参数以建立 MCP 会话。
-
基本使用方法
- 启动后,客户端可通过 MCP 的 JSON-RPC 风格请求读取资源、注册并执行工具、获取 Prompt 等。
- 通过日志与返回结构了解工具激活、主mass(fragment) 的识别,以及适配的传输方式。