项目简介
这是一个基于Model Context Protocol (MCP) 构建的服务器,旨在解决AI模型在提供Python依赖包管理命令时信息过时的问题。它能够交叉引用并自动更新'pip'、'conda'、'poetry'、'uv'、'pixi'和'pdm'等主流工具的官方文档,并为LLM客户端提供权威、准确、实时的文档搜索能力。通过此服务器,您的AI助手可以提供最新的官方语法、教程和最佳实践。
主要功能点
- 多管理器文档集成: 集中搜索'pip'、'conda'、'poetry'、'uv'、'pixi'和'pdm'的官方文档。
- 内容实时更新: 每周自动同步最新官方文档,确保信息准确无误。
- 智能模糊搜索: 支持对文档内容进行模糊搜索,并能处理拼写错误,快速定位相关信息。
- 特定工具筛选: 可以指定搜索结果只返回特定依赖包管理器的文档。
- 为LLM优化: 提供的工具接口包含详细的使用策略和引用要求,帮助LLM生成高质量、可信赖的回答。
安装步骤
本MCP服务器以Docker镜像形式提供,安装非常简便:
- 安装Docker: 如果您的系统尚未安装Docker,请先访问Docker官网 (docs.docker.com) 下载并安装适用于您操作系统的Docker Desktop或Docker Engine。
- 拉取Docker镜像: 打开终端或命令行工具,执行以下命令拉取最新的服务器镜像:
(为了生产环境的安全性,您也可以指定一个具体的镜像哈希值,可在Docker Hub页面获取最新哈希。)docker pull keminghe/py-dep-man-companion:latest
服务器配置
本MCP服务器是为MCP客户端(如Agentic IDEs)设计的。MCP客户端需要通过配置来发现并启动此服务器。以下是配置此服务器的JSON格式示例及其说明,您需要将此信息添加到您的MCP客户端的配置文件(通常是'mcp.json')中。
{ "mcp": { "servers": { "python-deps": { // 服务器的唯一名称,用于MCP客户端识别和引用 "command": "docker", // 启动服务器所使用的命令,这里是运行Docker "args": ["run", "-i", "--rm", "keminghe/py-dep-man-companion"] // 命令的参数列表,指定运行哪个Docker镜像 } } } }
基本使用方法
一旦MCP客户端配置并连接了此服务器,您可以通过向LLM提出问题来利用其文档搜索能力。LLM将自动调用此MCP服务器的工具来获取答案。
例如,您可以问:
- “如何将一个'conda'项目迁移到'uv'?”
- “'pip'和'poetry'的依赖管理命令有什么不同?”
- “我如何使用'pdm'进行环境隔离?”
服务器将通过LLM返回基于最新官方文档的准确、权威的回答,并附带引用链接以供验证。
信息
分类
开发者工具