LLM Energy MCP 服务器

使用说明(Markdown 格式)

  • 项目简介

    • 该工程实现了一个用于 MCP 客户端的后端服务器,核心职责包括:托管和管理资源(Resources)以便数据访问、注册和执行工具(Tools)以调用外部功能、以及定义与渲染 Prompt 模板(Prompts),通过 JSON-RPC 协议与客户端通信。
    • 服务端使用 Stdio 传输,支持通过命令行与客户端进行简单的交互;在当前实现中,服务器会从目标网站提取 llms-full.txt 或 llms.txt 文档,解析成多个文档对象,生成并缓存统一的 llms-full.md、AGENT-GUIDE.md,以及各个分文档,然后对外暴露资源与工具入口,供 LLM 客户端查询和使用。
  • 主要功能点

    • MCP 服务核心能力
      • 资源与数据访问:将提取的文档、全量文档、代理指南等组织为资源,并通过资源读取接口提供内容。
      • 工具注册与执行:注册多种工具,如提取文档、获取分节、读取全文、读取代理指南、验证 llms.txt、发现文档 URL 等,支持执行并返回结构化结果。
      • 提示与模板:支持 Agent 指南等提示性文档的生成与访问,便于 AI 助手接入使用。
    • 本地批处理与缓存
      • in-memory 缓存机制,避免重复抓取与解析,同步提供文档、全文及代理指南等的一致性视图。
    • 多文档输出
      • llms-full.md(带目录的完整文档)、AGENT-GUIDE.md(AI 助手使用指南)、以及单独的分文档(如各个章节的 Markdown 文件)。
    • 传输与部署
      • 当前实现使用 Stdio 传输启动 MCP 服务器,便于与本地或脚本化的客户端进行集成,未来可扩展到 SSE、WebSocket 等传输协议。
  • 安装步骤

    • 需求准备
      • 需要 Node.js 环境,以及能编译/运行 TypeScript 的工具链(如 npm/yarn/pnpm 与 TypeScript)。
    • 安装依赖
      • 在项目根目录执行安装命令以获取所需依赖。
    • 构建与运行
      • 先执行构建,将 TypeScript 编译为可执行的 JavaScript。
      • 使用 Node.js 运行编译产物,启动 MCP 服务器。
    • 运行后的访问方式
      • 客户端通过 MCP 协议以 JSON-RPC 与服务器交互,当前实现以标准输入输出(stdio)进行通信。
  • 服务器配置(MCP 客户端需要的最小信息) 说明:以下配置用于描述如何从客户端启动并连接到服务器。配置信息用 JSON 表达,包含服务器名称、启动命令及参数等要素,便于 MCP 客户端进行连接配置。该信息仅用于示例说明,实际启动请以您的部署环境为准。

{ "serverName": "llm-energy-mcp", "command": "node", "args": ["dist/index.js"], "transport": "stdio", "notes": "服务器通过标准输入输出与 MCP 客户端通信。需要先执行构建,将 TypeScript 源码编译为 dist/index.js,再以 node dist/index.js 启动。" }

  • 基本使用方法

    • 启动步骤
      1. 安装依赖并构建项目,确保 dist/index.js 产物存在。
      2. 通过命令行启动服务器,如 node dist/index.js,确认服务器成功启动并输出日志。
    • 常用交互(示意)
      • 调用提取文档工具 extract_documentation,传入目标网站地址,服务器会抓取 llms-full.txt/llms.txt,解析并缓存文档,返回概要信息与可用的文档内容。
      • 使用 list_extracted_documents、get_full_documentation、get_document_section、get_agent_guide 等工具获取相应的内容。
      • 调用 verify_llms_txt、discover_documentation_urls 等工具进行网站文档文件的可用性与位置发现。
    • 注意事项
      • 由于文档抓取涉及外部网络请求,请确保运行环境具备网络访问能力。
      • 提取过程可能因目标站点的 llms.txt 结构差异而略有不同,解析器会尽量稳健地处理分段内容。
  • 主要优势与适用场景

    • 将网页文档、LLM 指南和分章节文档以 MCP 服务器的形式提供,方便将外部文档作为上下文直接提供给大语言模型进行推理、问答与推理任务。
    • 可用于搭建以文档驱动的 AI 助手,支持可扩展的工具与资源系统,便于后续扩展更多站点与格式的文档提取。
  • 维护与扩展

    • 当前实现以内存缓存为主,生产环境可考虑将缓存落地、引入数据库来管理文档资源。
    • 工具集可以继续扩展,增加对更多站点的 llms.txt/llms-full.txt 的支持,以及对不同格式文档的渲染与导出。

服务器信息