使用说明

项目简介

MCP-llms-txt 是一个 MCP 服务器,旨在将 Awesome-llms-txt 项目中收集的大量 LLM 相关资源链接,以 MCP 资源的形式提供给 LLM 客户端。通过这个服务器,LLM 客户端可以方便地访问和利用这些精选的 LLM 资源,从而在对话交互中融入更丰富的背景知识和参考资料。

主要功能点

  • 资源发现与管理:自动从 Awesome-llms-txt 仓库抓取最新的文档链接,并将其转化为结构化的 MCP 资源列表。LLM 客户端可以轻松浏览和检索这些资源。
  • 文档内容访问:客户端可以根据资源的 URI,请求服务器读取并返回文档的原始内容。目前支持读取 Markdown 格式的文档内容。

安装步骤

  1. 环境准备:确保你的机器上已安装 Python 3.7 或更高版本,以及 pip 包管理器。
  2. 下载代码:从 GitHub 仓库 SecretiveShell/MCP-llms-txt 下载源代码,或者使用 Git 克隆到本地。
  3. 安装依赖:在项目根目录下,打开终端或命令提示符,运行命令 'pip install .' 安装服务器所需的 Python 依赖包。

服务器配置

为了让 MCP 客户端能够连接到 MCP-llms-txt 服务器,需要在客户端中配置服务器的启动信息。以下是推荐的配置,通常以 JSON 格式填写在 MCP 客户端的服务器配置中:

{
    "serverName": "mcp-llms-txt",
    "command": "uvx",
    "args": ["mcp-llms-txt"]
}
  • 'serverName': 服务器的名称,可以自定义,例如 "mcp-llms-txt"。
  • 'command': 启动服务器的命令。这里配置为 'uvx',表示使用 'uvx' 运行器来启动。请确保你的环境中已安装 'uvx',或者将其替换为 'python -m mcp_llms_txt'。
  • 'args': 传递给启动命令的参数。对于 'uvx mcp-llms-txt',参数为 '["mcp-llms-txt"]',指定运行 'mcp_llms_txt' 包。 如果 'command' 使用 'python -m mcp_llms_txt',则 'args' 为空 '[]'。

基本使用方法

  1. 启动服务器:根据上述服务器配置,在安装了 MCP-llms-txt 的环境中启动服务器。如果使用 'uvx',只需确保 'uvx' 命令可用,并执行配置中的命令。
  2. 客户端连接:在 MCP 客户端中,添加并配置 MCP-llms-txt 服务器。客户端会根据配置信息连接到服务器。
  3. 浏览和使用资源:连接成功后,客户端可以向服务器请求资源列表,浏览 Awesome-llms-txt 提供的文档资源。选择需要的资源,客户端可以请求服务器读取资源内容,以便在 LLM 应用中使用。

信息

分类

AI与计算