Cortex MCP 服务器

使用说明

  • 项目简介
    • 这是一个用于 Cortex 的 MCP 服务器实现,遵循 Model Context Protocol(MCP)规范,提供对资源、工具、以及 Prompt 模板的注册、渲染与执行能力。通过标准的 JSON-RPC 交互,LLM 客户端能够读取资源、调用工具、获取并渲染 Prompts,从而实现对知识库的受控访问与外部功能的扩展调用。
  • 主要功能点
    • MCP 服务器实现与暴露的能力:支持标准的资源(Resources)、工具(Tools)、提示模板(Prompts)的注册、执行和渲染。
    • 传输方式:内置支持标准输出(stdio)传输,也可通过 HTTP+SSE 转发实现网络化访问。
    • 工具与资源的实现:实现了包括搜索、导入、统计、事实查询、陈述/遗忘、推理、图谱相关工具,以及图谱主题、聚类等资源,具备示例化的测试与示例用例。
    • 与 Cortex 组件的集成:将 MCP 服务与 Cortex 的存储、搜索、嵌入、图谱等模块对接,提供统一的后端服务端口。
  • 安装与运行步骤
    • 克隆/获取代码后,构建并运行 MCP 服务器。
    • 运行后,客户端可通过以下任一方式连接:
      • STDIO 传输:直接在本地使用 Cortex 的 MCP 客户端(如 Claude Desktop、Cursor、OpenClaw 等)接入。
      • HTTP+SSE 传输:通过 HTTP 端口暴露 MCP 服务,客户端可通过 SSE 事件流与服务器通信。
  • 服务器配置注释(MCP 客户端需要配置的 JSON 配置)
    • server name: cortex
    • command: npx 或 go 可执行的 MCP 服务端命令(如直接运行 cortex mcp 的二进制)
    • args: 启动参数数组,示例性描述如下(实际使用请按客户端要求提供):
      • server_name: cortex
      • command: 你的 MCP 服务端命令(如 go run ./cmd/cortex/mcp 或 npx @cortex-ai/mcp 等)
      • args: ["mcp", "--port", "8080"] // 如使用 HTTP+SSE 模式,指定端口
  • 基本使用方法
    • 启动:在服务端以 MCP 服务器模式启动 Cortex,为 LLM 客户端提供访问入口。
    • 连接:客户端配置中指定服务器名称、启动命令与参数,使其与 MCP 服务器建立 JSON-RPC 通信。
    • 使用场景:读取资源、调用工具、获取 Prompt,或与外部系统协同完成复杂推理任务。
  • 其他说明
    • 服务器会话管理、能力声明,以及对多种传输协议的支持,适合在本地离线或半离线场景中为 LLM 提供可扩展的上下文服务框架。

服务器信息