项目简介

这是一个基于Model Context Protocol (MCP) 构建的服务器,旨在解决AI模型在提供Python依赖包管理命令时信息过时的问题。它能够交叉引用并自动更新'pip'、'conda'、'poetry'、'uv'、'pixi'和'pdm'等主流工具的官方文档,并为LLM客户端提供权威、准确、实时的文档搜索能力。通过此服务器,您的AI助手可以提供最新的官方语法、教程和最佳实践。

主要功能点

  • 多管理器文档集成: 集中搜索'pip'、'conda'、'poetry'、'uv'、'pixi'和'pdm'的官方文档。
  • 内容实时更新: 每周自动同步最新官方文档,确保信息准确无误。
  • 智能模糊搜索: 支持对文档内容进行模糊搜索,并能处理拼写错误,快速定位相关信息。
  • 特定工具筛选: 可以指定搜索结果只返回特定依赖包管理器的文档。
  • 为LLM优化: 提供的工具接口包含详细的使用策略和引用要求,帮助LLM生成高质量、可信赖的回答。

安装步骤

本MCP服务器以Docker镜像形式提供,安装非常简便:

  1. 安装Docker: 如果您的系统尚未安装Docker,请先访问Docker官网 (docs.docker.com) 下载并安装适用于您操作系统的Docker Desktop或Docker Engine。
  2. 拉取Docker镜像: 打开终端或命令行工具,执行以下命令拉取最新的服务器镜像:
    docker pull keminghe/py-dep-man-companion:latest
    (为了生产环境的安全性,您也可以指定一个具体的镜像哈希值,可在Docker Hub页面获取最新哈希。)

服务器配置

本MCP服务器是为MCP客户端(如Agentic IDEs)设计的。MCP客户端需要通过配置来发现并启动此服务器。以下是配置此服务器的JSON格式示例及其说明,您需要将此信息添加到您的MCP客户端的配置文件(通常是'mcp.json')中。

{
  "mcp": {
    "servers": {
      "python-deps": { // 服务器的唯一名称,用于MCP客户端识别和引用
        "command": "docker", // 启动服务器所使用的命令,这里是运行Docker
        "args": ["run", "-i", "--rm", "keminghe/py-dep-man-companion"] // 命令的参数列表,指定运行哪个Docker镜像
      }
    }
  }
}

基本使用方法

一旦MCP客户端配置并连接了此服务器,您可以通过向LLM提出问题来利用其文档搜索能力。LLM将自动调用此MCP服务器的工具来获取答案。

例如,您可以问:

  • “如何将一个'conda'项目迁移到'uv'?”
  • “'pip'和'poetry'的依赖管理命令有什么不同?”
  • “我如何使用'pdm'进行环境隔离?”

服务器将通过LLM返回基于最新官方文档的准确、权威的回答,并附带引用链接以供验证。

信息

分类

开发者工具