项目简介

该项目实现了一个符合 Model Context Protocol (MCP) 规范的服务器端应用。它通过定义和提供特定的“工具”,允许连接的LLM客户端调用这些工具来获取LinkedIn用户的公开资料和公司的详细信息,从而为LLM应用提供丰富的、结构化的上下文数据。

主要功能点

  • 获取用户资料: 根据提供的LinkedIn公开资料URL,调用工具抓取用户的基本信息、工作经历、教育背景等。
  • 分析公司信息: 根据提供的LinkedIn公司主页URL,调用工具获取公司的概况、规模、行业等信息。
  • 遵循MCP规范: 实现JSON-RPC协议进行通信,声明支持“工具”能力。
  • 环境配置: 支持通过环境变量配置必要的API密钥。

安装步骤

  1. 确保已安装 Node.js 和 npm。
  2. 克隆或下载项目代码。
  3. 在项目根目录打开终端,运行命令安装依赖:
    npm install
  4. 复制 '.env.example' 文件并重命名为 '.env'。
  5. 访问 'https://fridaydata.tech' 获取 API Key。
  6. 编辑 '.env' 文件,将获取到的 API Key 添加到 'FRIDAY_API_KEY=' 后面。

服务器配置 (供MCP客户端使用)

这是一个MCP服务器,需要由支持MCP协议的LLM客户端连接并使用。客户端通常需要配置服务器的启动命令和参数来与之建立连接(例如使用Stdio传输协议)。以下是配置该服务器的关键信息描述,请在你的MCP客户端中参照配置:

  • 服务器名称 (server name): 通常显示为 "LinkedIn Scraper"。
  • 启动命令 (command): 'npx'
  • 命令参数 (args): 一个包含字符串的数组,应为 '["ts-node", "src/server.ts"]'。
  • 工作目录 (cwd): 项目的根目录路径。
  • 传输协议 (transport): 'stdio' (标准输入/输出)

客户端配置通常是JSON格式,但具体结构取决于你的客户端实现。请勿直接复制上面的命令和参数字符串,而是根据客户端的要求填写对应的字段。

基本使用方法

完成安装和配置后,启动服务器。它将通过标准输入/输出等待MCP客户端的连接和JSON-RPC请求。例如,一个MCP客户端可能会发送一个'CallTool'请求来调用'scrape_linkedin_profile'或'analyze_linkedin_company'工具,并提供相应的LinkedIn URL作为参数。你无需手动发送'curl'请求,这些是由连接的MCP客户端自动完成的。服务器会将工具执行结果或错误通过标准输出以JSON-RPC格式返回给客户端。

信息

分类

网页与API