PackRun MCP 服务器
使用说明
-
项目简介
- 该仓库实现了一个 MCP 服务器,允许 AI 助手通过标准的 MCP 协议向后端请求包信息、执行工具、获取并渲染提示模板等能力。核心在于将“资源与工具”的能力暴露给 LLM 客户端,通过 JSON-RPC 进行请求/响应,便于集成到 Cursor、Claude 等 AI 辅助工具中。
-
主要功能点
- MCP 协议核心能力
- 接收 MCP 客户端的 JSON-RPC 请求,返回统一格式的 JSON-RPC 响应。
- 提供初始化、工具列表、具体工具调用等能力的接口。
- 工具注册与执行
- 服务端注册多种工具(如 get_package_version、check_deprecated、check_vulnerabilities、find_alternatives、compare_packages 等),可由 LLM 调用并获取结构化结果。
- 数据与健康信息
- 提供对包的健康评分、风险、替代包、以及深度健康数据的查询与聚合。
- 资源与场景扩展
- 通过后端工具与数据源组合,支持在对话中提供包信息、依赖关系、安装建议等上下文。
- 与客户端的对接
- 客户端通过 MCP 端点与服务器通信,服务器端返回 JSON-RPC 响应;当前实现将 MCP 服务部署在 API 服务内,通过 /mcp 路径暴露。
- MCP 协议核心能力
-
安装步骤
- 在本地环境准备好 Node/Bun 类型的运行环境。
- 获取代码后,安装依赖并启动服务(具体命令可能因项目脚本而异,通常在包含 API 的应用中启动服务即可暴露 MCP 接入点)。
- 服务器对外地址示例(MCP 端点)通常为:https://mcp.packrun.dev/mcp
- 参考项目内测试用例,MCP 端点用于解析 JSON-RPC 请求并返回响应。
-
服务器配置(MCP 客户端需配置,格式为 JSON;以下为示例配置项,实际部署以项目文档或环境脚本为准) 服务器名称: packrun 服务器地址: https://mcp.packrun.dev/mcp 示意配置(JSON,供 MCP 客户端读取并建立连接;客户端客户端无需变更): { "mcpServers": { "packrun": { "url": "https://mcp.packrun.dev/mcp", "command": "bun", "args": ["run", "start:api"] } } } 说明:
- url 指向 MCP 服务端的公开入口,该端点实现了 MCP 的 JSON-RPC 通信。
- command 与 args 描述了在你自己的环境中用于启动 MCP 服务所在的进程命令集合(此处给出示意,具体脚本请按你们的部署方式配置)。
- MCP 客户端本身无需特定实现代码,只需正确提供上述连接信息即可调度工具、读取资源与渲染提示模板。
-
基本使用方法
- 向 MCP 服务器发起初始化请求,获取服务器信息与支持的工具列表。
- 通过调用具体工具(如 get_package_version、compare_packages 等)来获得结构化的分析结果。
- 将工具返回的内容用于对话生成、决策支持或自动化工作流中,提升对包生态的理解与选择质量。
- 如遇需要扩展能力,可以在后端注册新的工具并暴露给 MCP 客户端。