Corpus Intelligence MCP Server

使用说明内容(Markdown格式)

  • 项目简介

    • Corpus Intelligence MCP Server 是一个基于 MCP 规范的后端服务,旨在为大语言模型提供可查询的上下文资源、可调用的工具以及可渲染的提示模板,帮助 LLM 客户端在对话中获得一致、可扩展的上下文信息与功能。
  • 主要功能点

    • MCP 服务实现:实现标准的 MCP 请求/响应流程,提供资源读取、工具调用、Prompt 获取等能力声明与执行流。
    • 工具与资源管理:托管22+工具集合,支持 gravity 调度、以及与向量检索、图数据库等其他服务的协作。
    • Prompts 与渲染:提供 Prompt 模板及渲染逻辑,支持灵活的对话模式。
    • 会话管理与跨传输:会话上下文保持、跨进程传输支持(如 Stdio、SSE、WebSocket 等传输协议的适配)。
    • 服务器端集成:与嵌入服务、图数据库、分析服务等组件集成,形成端到端的 MCP 后端生态。
  • 安装与运行(简要步骤)

    • 克隆并安装依赖:在仓库根目录执行安装命令安装依赖。
    • 启动服务:运行 mcp-server 相关入口,监听 MCP 请求。
    • 连接客户端:MCP 客户端通过指定的传输协议(如 stdio 或 SSE)连接服务器,进行资源读取、工具调用、模板获取等请求。
  • 服务器配置(MCP 客户端需要配置,以下描述由 MCP 客户端使用,服务器端示例信息仅供参考)

    • server name: corpus-intelligence
    • command: node
    • args: ["/path/to/mcp-server/dist/index.js"] // 实际路径请按部署环境填写
    • 说明:服务器端实现了 MCP 服务端入口,客户端在连接时应指向该服务器的启动命令与参数以建立 MCP 会话。
  • 基本使用方法

    • 启动后,客户端可通过 MCP 的 JSON-RPC 风格请求读取资源、注册并执行工具、获取 Prompt 等。
    • 通过日志与返回结构了解工具激活、主mass(fragment) 的识别,以及适配的传输方式。

服务器信息