项目简介

llms-full MCP 服务器是一个基于 Model Context Protocol (MCP) 构建的应用后端,旨在为大型语言模型 (LLM) 客户端提供结构化的上下文信息和外部功能。它集成了本地 RAG (检索增强生成) 文档系统和 Tavily AI Web 搜索工具,通过统一的服务器接口对外提供服务。该服务器的核心功能是帮助 LLM 应用更有效地访问和利用外部知识,提升问答和信息检索能力。

主要功能点

  • API 集成: 通过统一的 MCP 服务器访问 Tavily AI 和 llms-full 工具。
  • Web 搜索: 利用 Tavily AI 提供强大的 Web 搜索功能 ('tavily_search', 'tavily_extract')。
  • 文档 RAG: 管理和查询本地文档,支持多种 Embedding 模型和 Qdrant 向量数据库,提供文档来源管理、向量检索等功能 ('llms_full_vector_store_*')。
  • 统一处理流程 (Pipeline): 通过 'get_llms_full' 工具,实现从文档发现、内容抓取、内容总结到向量嵌入的完整流程,支持多种数据源(主题、URL、本地文件)。
  • 任务管理: 提供完善的任务监控和管理工具,包括任务状态查询、详细信息查看、任务取消、进度检查和任务清理等 ('llms_full_get_task_status', 'llms_full_cancel_task' 等)。
  • 任务重启: 支持从失败任务的特定阶段重启处理流程 ('llms_full_restart_task')。
  • 并发控制: 内置任务调度器,有效管理并发任务执行,优化资源利用。
  • 配置灵活: 通过环境变量进行 API 密钥和各项参数配置,方便部署和定制。

安装步骤

本服务器推荐使用 NPX 方式运行,无需手动安装,简化客户端集成配置:

  1. 环境准备: 确保已安装 Node.js (推荐 v20 或更高版本)。

  2. 客户端配置: 在 MCP 客户端(如 Cline, Cursor, Claude Desktop)的 MCP 服务器配置中,指定以下命令来运行服务器:

    npx -y llms-full-mcp-server

    注意: 如果 'llms-full-mcp-server' 不是实际发布的包名,请替换为正确的包名。

服务器配置

以下 JSON 配置信息用于 MCP 客户端连接 llms-full MCP 服务器。客户端需要配置 'command' 和 'args' 来启动服务器,并通过 'env' 传递必要的环境变量。

{
  "mcpServers": {
    "llms-full-mcp": {  // 服务器名称,客户端内部使用
      "command": "node", // 启动命令,使用 Node.js 运行
      "args": ["./build/index.js"], // 命令参数,执行构建后的 index.js 文件
      "env": {
        "QDRANT_URL": "http://localhost:6333", // Qdrant 数据库 URL,请替换为实际地址
        "EMBEDDING_PROVIDER": "ollama", // Embedding 模型提供商,例如 ollama, openai, google
        "OLLAMA_MODEL": "nomic-embed-text", // Ollama Embedding 模型名称
        "TAVILY_API_KEY": "YOUR_TAVILY_KEY", // Tavily API 密钥,用于 Web 搜索,请替换为实际密钥
        "GEMINI_API_KEY": "YOUR_GEMINI_KEY", // Gemini API 密钥,用于 LLM 功能,请替换为实际密钥
        "PIPELINE_LLM_PROVIDER": "gemini" // Pipeline 中使用的 LLM 提供商,例如 gemini, ollama, openrouter
        // ... 其他可选环境变量,请参考 README.md 的 "Configuration" 部分
      }
    }
  }
}

配置说明:

  • '"llms-full-mcp"': 服务器名称,在客户端配置中用于标识该服务器,可以自定义。
  • '"command": "node"': 指定用于启动服务器的命令为 'node',表示使用 Node.js 运行时环境。
  • '"args": ["./build/index.js"]': 指定传递给 'node' 命令的参数,'./build/index.js' 是构建后的服务器入口文件路径。
  • '"env": { ... }': 环境变量配置,用于设置服务器运行所需的各种参数,例如 API 密钥、数据库连接信息等。请根据实际使用的功能配置相应的环境变量,并替换示例配置中的占位符密钥为您的真实密钥。

基本使用方法

  1. 启动服务器: 配置完成后,启动 MCP 客户端,客户端会自动根据配置启动 llms-full MCP 服务器。
  2. 使用工具: 在 MCP 客户端中,可以使用以下工具来与服务器交互:
    • 'tavily_search': 进行 Web 搜索。
    • 'llms_full_vector_store_search': 在文档向量数据库中进行检索。
    • 'get_llms_full': 启动文档处理 Pipeline,例如处理指定主题或 URL 的文档并索引到向量数据库中。
    • 'llms_full_get_task_status': 查询任务状态。
    • 'llms_full_cancel_task': 取消任务。
    • 更多工具请参考 README.md "Available Tools" 章节。
  3. 参考示例: README.md 的 "Usage Examples" 章节提供了各种工具的详细使用示例,可以参考这些示例来使用服务器提供的功能。

信息

分类

网页与API