使用说明

项目简介

HR智能助手服务器 (HR Intelligence) 是一个基于Model Context Protocol (MCP) 构建的后端服务,旨在为AI助手提供结构化的HR数据访问和检索能力。该项目能够从非结构化的HR文档(如简历)中提取信息,存储到数据库中,并通过MCP协议将数据库查询功能以工具的形式暴露给AI助手,从而实现智能化的简历检索和人才管理。

主要功能点

  • 结构化数据访问: 通过预定义的MCP工具,以结构化的方式访问和检索存储在数据库中的候选人信息。
  • 多维度搜索能力: 支持基于职位角色、工作经验语义、技能组合、教育背景等多种维度的候选人搜索。
  • 详细候选人信息检索: 能够根据候选人ID检索完整的候选人profile信息,包括联系方式、工作经历、教育背景、技能等。
  • AI助手集成: 通过MCP协议,无缝集成到各类AI助手平台,使AI助手具备HR数据查询和分析能力。

安装步骤

  1. 克隆仓库:

    git clone https://github.com/dhiraj-instalily/hr_intelligence.git
    cd hr_intelligence
  2. 创建并激活虚拟环境:

    python -m venv venv
    source venv/bin/activate   # Linux/macOS
    venv\Scripts\activate  # Windows
  3. 安装依赖:

    pip install -r requirements.txt
  4. 配置API Keys: 创建 '.env' 文件,并填入 LlamaParse 和 OpenAI 的 API Keys。

    LLAMA_CLOUD_API_KEY=your-llama-api-key-here
    OPENAI_API_KEY=your-openai-api-key-here

    请替换 'your-llama-api-key-here' 和 'your-openai-api-key-here' 为您自己的API Keys。

  5. 初始化数据库 (可选): 如果需要重新初始化数据库,可以运行 'scripts/db_cleanup.py' 脚本。首次运行 'mcp_server.py' 时会自动创建数据库,并从JSON文件中导入数据。

    python scripts/populate_hybrid_db.py --resumes-dir data/llm_processed_resumes

服务器配置

MCP客户端需要配置以下JSON格式信息以连接到HR智能助手服务器:

{
  "serverName": "hr_intelligence_mcp_server",  // 服务器名称,可自定义
  "command": "python",                     // 启动服务器的命令
  "args": [                                // 启动命令的参数
    "mcp_server.py"                      //  指向 mcp_server.py 脚本
  ]
}

基本使用方法

  1. 启动MCP服务器:

    python mcp_server.py

    服务器默认监听 8000 端口。

  2. 使用MCP客户端或HTTP请求测试工具: 可以使用仓库中提供的 'mcp_client.py' 示例客户端测试MCP工具,或者直接使用HTTP请求调用服务器提供的API endpoints (例如使用 curl 或 Postman)。

    例如,使用 'mcp_client.py' 测试 'search_by_role_tool':

    python mcp_client.py

    或者,使用 HTTP POST 请求调用 'search_by_role' 工具 (API endpoint: '/tools/search_by_role'):

    curl -X POST -H "Content-Type: application/json" -d '{"keywords": "软件工程师"}' http://localhost:8000/tools/search_by_role

    请参考 'MCP_TOOLS_README.md' 文件了解更多关于MCP工具的详细使用方法和参数说明。

信息

分类

商业系统