使用说明

项目简介

mcp-researcher-project 是一个基于 Model Context Protocol (MCP) 的研究助手系统,旨在演示如何构建一个模块化和可扩展的 MCP 服务器。该项目集成了多种服务和组件,包括 MCP 服务器核心、LLM 提供商封装、NLP 模块、知识图谱管理和前端 UI,旨在帮助用户构建能够利用上下文信息进行智能交互的应用。

主要功能点

  • MCP 协议支持: 实现了 MCP 协议的关键端点,如 'initialize', 'prompts/list', 'tools/list', 'resources/read' 等,支持客户端与服务器之间的标准化通信。
  • LLM 提供商抽象: 通过 'mcp-wrapper' 模块,统一封装了对不同 LLM 提供商(如 OpenAI 和 Anthropic)的接口,方便用户灵活切换和扩展模型。
  • NLP 功能集成: 集成了 NLP 模块,通过 RabbitMQ 异步处理自然语言处理任务,如实体抽取、文本摘要等,并以工具的形式暴露给 MCP 服务器。
  • 知识图谱管理: 使用 Neo4j 数据库管理知识图谱,存储和查询从文本中抽取的实体和关系,增强系统的知识理解和推理能力。
  • 资源管理: 支持通过 'resources/read' 端点读取本地文件资源,为 LLM 提供额外的上下文信息。
  • 工具注册与执行: 允许 MCP 客户端调用 NLP 模块提供的工具,扩展 LLM 的能力。
  • 前端用户界面: 提供一个基于 Backroad 构建的简单 Web UI,方便用户与 MCP 研究助手系统进行交互和测试。

安装步骤

  1. 克隆仓库:

    git clone https://github.com/nappernick/mcp-researcher-project.git
    cd mcp-researcher-project
  2. 安装依赖: 项目主要使用 'bun' 或 'npm' 包管理器。确保已安装 bun

    bun install

    对于 'nlp-module' 中的 Python 代码,安装依赖:

    cd nlp-module/py_api
    pip install -r requirements.txt
  3. 配置环境变量: 根据需要配置以下环境变量,可以在项目根目录下创建 '.env' 文件:

    • 'OPENAI_API_KEY', 'CLAUDE_API_KEY': LLM 提供商 API 密钥 (根据所选提供商配置)
    • 'NEO4J_URI', 'NEO4J_USER', 'NEO4J_PASSWORD': Neo4j 数据库连接信息
    • 'MONGO_URI': MongoDB 数据库连接信息
    • 'RABBITMQ_HOST', 'RABBITMQ_USERNAME', 'RABBITMQ_PASSWORD': RabbitMQ 消息队列连接信息
  4. 配置 LLM 提供商: 设置 'PROVIDER_NAME' 环境变量为 'openai' 或 'anthropic',选择要使用的 LLM 提供商。例如:

    PROVIDER_NAME=openai

服务器配置

MCP 客户端需要配置 MCP 服务器的启动命令和参数,以便建立连接。对于 'mcp-researcher-project',MCP 服务器的配置信息 (JSON 格式) 如下:

{
  "serverName": "mcp-research-assistant",
  "command": "bun",
  "args": [
    "run",
    "start"
  ],
  "description": "启动 MCP Research Assistant 主服务器 (TypeScript)"
}

参数注释:

  • 'serverName': 服务器名称,可以自定义。
  • 'command': 启动服务器的可执行命令,这里使用 'bun'。
  • 'args': 传递给 'bun' 命令的参数数组,'run start' 表示执行 'package.json' 中定义的 'start' 脚本,该脚本会启动 'mcp-research-assistant' 目录下的 MCP 服务器。
  • 'description': 服务器描述信息,方便用户理解服务器用途。

基本使用方法

  1. 启动 MCP 服务器: 在 'mcp/mcp-research-assistant' 目录下,运行以下命令启动 MCP 主服务器:

    cd mcp/mcp-research-assistant
    bun run start
  2. 启动 NLP 模块 (可选): 如果需要使用 NLP 功能,在 'mcp/nlp-module/py_api' 目录下,运行以下命令启动 NLP 服务:

    cd mcp/nlp-module/py_api
    python server.py
  3. 启动前端 (可选): 如果需要使用 Web UI,在 'mcp/mcp_frontend' 目录下,运行以下命令启动前端应用:

    cd mcp/mcp_frontend
    bun run main.ts

    然后通过浏览器访问 'http://localhost:3000' (或配置的端口) 即可使用前端界面与 MCP 系统交互。

  4. 使用 MCP 客户端连接: 配置 MCP 客户端,使用上述提供的服务器配置信息连接到 MCP 服务器。客户端可以通过 JSON-RPC 协议向服务器发送请求,例如 'generate'、'tools/list'、'resources/read' 等,与研究助手系统进行交互。

信息

分类

AI与计算