项目简介
Lighthouse MCP服务器是一个实现了Model Context Protocol (MCP) 标准的应用后端,专门用于集成Google Lighthouse工具,为大型语言模型(LLM)客户端提供网站性能、无障碍、SEO、安全和渐进式网页应用(PWA)等方面的分析和审计能力。通过这个服务器,LLM可以调用标准的工具、访问参考资源和使用预定义的Prompt模板,以生成详细的网站分析报告、优化建议和改进计划。
主要功能点
- 全面的网站审计: 利用Google Lighthouse进行完整的网站评估,包括性能得分、Core Web Vitals、优化建议等。
- 无障碍性检查: 评估网站是否符合WCAG标准,提供无障碍性改进建议。
- SEO分析: 检查网站的技术性SEO因素和最佳实践,帮助提升搜索排名。
- 安全评估: 审计网站的HTTPS配置、内容安全策略(CSP)和其他安全相关项。
- 资源分析: 详细分析网站加载的各种资源(JavaScript, CSS, 图片, 字体),识别优化机会。
- 设备对比: 支持在模拟移动设备和桌面设备上运行审计并进行对比。
- 性能预算检查: 根据预设的性能指标预算检查网站是否达标。
- 内置参考资源: 提供Core Web Vitals阈值、优化技术、WCAG指南、SEO/安全最佳实践等标准参考信息供LLM调用。
- 预定义Prompt模板: 包含用于分析审计结果、制定优化计划、比较审计前后变化等多种场景的Prompt模板。
安装步骤
这个MCP服务器通常不是独立运行的,而是由支持MCP协议的LLM客户端(如VS Code、Cursor、Claude Desktop等)进行配置和启动。您需要在您的MCP客户端中添加该服务器的配置。
请确保您的系统已安装 Node.js 22.0.0 或更新版本。服务器会自动管理Chrome/Chromium浏览器进行审计。
安装过程通常涉及在客户端的MCP设置中添加如下JSON配置:
服务器配置
将以下配置添加到您的MCP客户端的服务器列表中:
{ "name": "lighthouse", "command": "npx", "args": ["@danielsogl/lighthouse-mcp@latest"] }
配置说明:
- 'name': 服务器的唯一名称,例如 "lighthouse"。
- 'command': 启动MCP服务器进程的命令。使用 'npx' 可以直接从npm仓库运行最新的 '@danielsogl/lighthouse-mcp' 包而无需全局安装。
- 'args': 传递给 'command' 的参数列表。'["@danielsogl/lighthouse-mcp@latest"]' 指定了要执行的npm包及其版本。
完成配置后,您的MCP客户端将能够自动发现并连接到此Lighthouse MCP服务器。
基本使用方法
与Lighthouse MCP服务器的交互是通过您的LLM客户端进行的。您通常无需直接运行或配置服务器进程,客户端会自动处理。
- 在您的MCP客户端中配置服务器: 按照上文的“服务器配置”部分,在您的客户端设置中添加Lighthouse MCP服务器。
- 向LLM提问或发出指令: 在支持MCP集成的LLM客户端中,向LLM提出与网站审计、性能分析、SEO、无障碍性或安全相关的问题或请求。
- 示例:
- "请使用Lighthouse分析一下我的网站 example.com 的性能。" (LLM可能会调用 'run_audit' 或 'get_performance_score' 工具)
- "帮我看看这个页面 example.com 的Core Web Vitals表现如何?" (LLM可能会调用 'get_core_web_vitals' 工具)
- "请分析 example.com 的可访问性问题。" (LLM可能会调用 'get_accessibility_score' 工具)
- "我想了解针对 example.com 的图片优化建议。" (LLM可能会调用 'analyze_resources' 工具,然后可能结合Prompt模板)
- "给我Core Web Vitals的良好标准阈值是多少?" (LLM可能会访问 'lighthouse://performance/core-web-vitals-thresholds' 资源)
- 示例:
- LLM调用MCP服务器: LLM客户端会识别您的意图,并根据您的问题或指令,自动通过MCP协议调用Lighthouse MCP服务器上注册的相应工具、资源或Prompt模板。
- 服务器执行任务并返回结果: Lighthouse MCP服务器接收请求,调用底层的Google Lighthouse库执行审计或分析任务,并将结构化的结果通过MCP协议返回给LLM客户端。
- LLM处理结果并回复: LLM接收到服务器返回的原始数据,根据数据进行分析、总结,并以易于理解的方式向您提供报告、见解和建议。
您可以通过查阅您的LLM客户端文档,了解如何查看MCP服务器的工具、资源和Prompt列表,以便更精确地向LLM发出指令。
信息
分类
开发者工具