使用说明
项目简介
Hyperbrowser MCP 服务器是 Hyperbrowser 项目的服务器端实现,遵循 Model Context Protocol (MCP) 协议。它为大型语言模型 (LLM) 客户端提供了一系列强大的工具,使其能够与互联网进行交互,包括网页内容抓取、结构化数据提取、以及网站爬取等功能。通过这些工具,LLM 客户端可以获取实时的网络信息,执行复杂的网络任务,从而扩展其应用场景和能力。
主要功能点
- 网页抓取 (Scrape Webpage): 允许 LLM 获取指定网页的内容,支持多种输出格式,如 Markdown、HTML、链接和网页截图。
- 结构化数据提取 (Extract Structured Data): 从多个网页中提取结构化信息,用户可以自定义 Prompt 和 JSON Schema 来精确控制提取内容和格式。
- 网页爬取 (Crawl Webpages): 从指定 URL 开始爬取网站,可配置是否跟踪链接和最大爬取页面数,用于批量收集网站信息。
- 浏览器使用 (Browser Use): 允许 LLM 在浏览器环境中执行复杂任务,例如模拟用户操作,完成网页表单填写、信息搜索等,并可选择返回详细的步骤信息。
- 资源管理: 通过 MCP 协议的资源管理功能,服务器可以提供 Hyperbrowser 文档等静态资源给客户端访问。
- 多种传输协议支持: 支持 Stdio 和 SSE 两种传输协议,满足不同客户端和应用场景的需求。
安装步骤
-
全局安装 (推荐): 打开终端,运行以下命令即可全局安装 Hyperbrowser MCP 服务器:
npx hyperbrowser-mcp -
从源代码安装 (开发模式): 如果您需要进行开发或修改,可以按照以下步骤从源代码安装:
git clone [email protected]:hyperbrowserai/mcp.git hyperbrowser-mcp cd hyperbrowser-mcp npm install # 或 yarn install npm run build node dist/server.js
服务器配置
MCP 客户端需要配置 MCP 服务器的启动命令才能与之建立连接。以下是针对不同 MCP 客户端的配置示例 (JSON 格式)。
Claude 客户端配置示例:
{ "mcpServers": { "hyperbrowser": { "command": "npx", "args": ["--yes", "hyperbrowser-mcp"], "env": { "HYPERBROWSER_API_KEY": "your-api-key" // 您的 Hyperbrowser API 密钥,也可以在 Prompt 中设置 } } } }
Cursor 等客户端配置示例 (不支持 'env' 字段): 对于不支持 'env' 字段的客户端,可以使用 shell 脚本来设置环境变量。
-
创建 'run_server.sh' 脚本 (内容示例):
#!/bin/bash export HYPERBROWSER_API_KEY="your-api-key" # 替换为您的 API 密钥 npx --yes hyperbrowser-mcp请确保脚本文件具有执行权限 ('chmod +x run_server.sh')。
-
Cursor 客户端配置示例:
{ "mcpServers": { "hyperbrowser": { "command": "bash", "args": ["/path/to/hyperbrowser-mcp/run_server.sh"] // 替换为 run_server.sh 脚本的实际路径 } } }
SSE 模式配置: 要以 SSE (Server-Sent Events) 模式运行服务器,可以使用 '--sse' 标志:
npx --yes hyperbrowser-mcp --sse
默认 SSE 服务器端口为 '3001'。您可以通过设置 'SSE_PORT' 环境变量来自定义端口:
SSE_PORT=3010 npx --yes hyperbrowser-mcp --sse
基本使用方法
-
启动服务器: 根据您的配置选择合适的命令启动 Hyperbrowser MCP 服务器。
-
配置 MCP 客户端: 在您的 LLM 客户端 (如 Claude, Cursor 等) 中配置 MCP 服务器连接信息,指定服务器名称、启动命令和参数等。
-
在 Prompt 中使用工具: 在 LLM 的 Prompt 中,您可以指示 LLM 调用 Hyperbrowser MCP 服务器提供的工具,例如:
- 让 LLM 使用 'scrape_webpage' 工具抓取网页内容。
- 让 LLM 使用 'extract_structured_data' 工具从网页中提取结构化数据。
- 让 LLM 使用 'crawl_webpages' 工具爬取网站信息。
- 让 LLM 使用 'browser_use' 工具在浏览器中执行特定任务。
具体的工具调用方式和参数需要参考 MCP 协议和 Hyperbrowser MCP 服务器的工具定义。
信息
分类
网页与API