使用说明

项目简介

'topoteretes_cognee-mcp-server' 是一个 MCP (Model Context Protocol) 服务器,它利用 cognee AI 记忆引擎为大型语言模型 (LLM) 客户端提供上下文信息和功能。该服务器主要提供 'Cognify_and_search' 工具,允许 LLM 客户端构建和查询文本知识图谱,从而提升 LLM 在知识检索和推理方面的能力。

主要功能点

  • 知识图谱构建与搜索: 提供 'Cognify_and_search' 工具,能够从输入的文本中构建知识图谱,并根据用户提供的查询在该图谱中进行搜索。
  • 基于 cognee AI 引擎: 底层使用 cognee AI 记忆引擎进行知识图谱的创建、存储和检索操作。
  • MCP 协议标准: 遵循 MCP 协议规范,通过 JSON-RPC 协议与客户端通信,易于集成到支持 MCP 协议的 LLM 应用中。
  • 可配置的数据库: 支持多种数据库配置,包括 'networkx', 'lancedb', 'sqlite' 等,可以根据需求灵活配置。

安装步骤

  1. 克隆仓库
    git clone https://github.com/MCP-Mirror/topoteretes_cognee-mcp-server
  2. 进入仓库目录
    cd topoteretes_cognee-mcp-server
  3. 安装 Python 依赖包 确保你的 Python 环境中已安装了 'pip'。运行以下命令安装项目所需的依赖包:
    pip install cognee mcp

服务器配置

对于 MCP 客户端(如 Claude Desktop),你需要配置 MCP 服务器的连接信息。以下是一个 JSON 格式的配置示例,你需要将其添加到你的 MCP 客户端配置文件中。

{
  "mcpcognee": {
    "command": "python3",
    "args": [
      "-m",
      "mcpcognee"
    ],
    "env": {
      "ENV": "local",
      "TOKENIZERS_PARALLELISM": "false",
      "LLM_API_KEY": "your llm api key",
      "GRAPH_DATABASE_PROVIDER": "networkx",
      "VECTOR_DB_PROVIDER": "lancedb",
      "DB_PROVIDER": "sqlite",
      "DB_NAME": "cognee_db"
    }
  }
}
  • 'server name': 'mcpcognee' - 服务器在 MCP 客户端中显示的名称。
  • 'command': 'python3' - 用于启动服务器的命令,这里假设使用 Python 3 环境。
  • 'args': '["-m", "mcpcognee"]' - 传递给 'python3' 命令的参数,'-m mcpcognee' 指示 Python 运行 'mcpcognee' 模块,即启动 MCP 服务器。
  • 'env': 环境变量配置:
    • 'ENV': 'local' - 设置运行环境为本地。
    • 'TOKENIZERS_PARALLELISM': 'false' - 禁用 tokenizer 并行处理。
    • 'LLM_API_KEY': 'your llm api key' - 需要替换为你实际的 LLM API 密钥,cognee 引擎可能需要访问 LLM 服务。
    • 'GRAPH_DATABASE_PROVIDER': 'networkx' - 知识图谱数据库提供商,默认为 networkx。
    • 'VECTOR_DB_PROVIDER': 'lancedb' - 向量数据库提供商,默认为 lancedb。
    • 'DB_PROVIDER': 'sqlite' - 数据库提供商,默认为 sqlite。
    • 'DB_NAME': 'cognee_db' - 数据库名称,默认为 cognee_db。

基本使用方法

  1. 启动 MCP 服务器: 配置完成后,MCP 客户端会根据配置启动 'topoteretes_cognee-mcp-server'。
  2. 使用 'Cognify_and_search' 工具: 在 MCP 客户端中,你可以调用 'Cognify_and_search' 工具。该工具接受以下参数:
    • 'text' (String): 用于构建知识图谱的文本内容。
    • 'search_query' (String): 在知识图谱中进行搜索的查询语句。
    • 'graph_model_file' (String, 可选): 自定义知识图谱模型的 Python 文件路径。
    • 'graph_model_name' (String, 可选): 自定义知识图谱模型的类名。
  3. 获取结果: 工具执行后,将返回在知识图谱中检索到的边信息,以文本内容的形式呈现给客户端。

通过配置和使用 'topoteretes_cognee-mcp-server',LLM 应用可以利用 cognee 引擎强大的知识图谱功能,提升其上下文理解和知识应用能力。

信息

分类

AI与计算