使用说明
项目简介
HR智能助手服务器 (HR Intelligence) 是一个基于Model Context Protocol (MCP) 构建的后端服务,旨在为AI助手提供结构化的HR数据访问和检索能力。该项目能够从非结构化的HR文档(如简历)中提取信息,存储到数据库中,并通过MCP协议将数据库查询功能以工具的形式暴露给AI助手,从而实现智能化的简历检索和人才管理。
主要功能点
- 结构化数据访问: 通过预定义的MCP工具,以结构化的方式访问和检索存储在数据库中的候选人信息。
- 多维度搜索能力: 支持基于职位角色、工作经验语义、技能组合、教育背景等多种维度的候选人搜索。
- 详细候选人信息检索: 能够根据候选人ID检索完整的候选人profile信息,包括联系方式、工作经历、教育背景、技能等。
- AI助手集成: 通过MCP协议,无缝集成到各类AI助手平台,使AI助手具备HR数据查询和分析能力。
安装步骤
-
克隆仓库:
git clone https://github.com/dhiraj-instalily/hr_intelligence.git cd hr_intelligence -
创建并激活虚拟环境:
python -m venv venv source venv/bin/activate # Linux/macOS venv\Scripts\activate # Windows -
安装依赖:
pip install -r requirements.txt -
配置API Keys: 创建 '.env' 文件,并填入 LlamaParse 和 OpenAI 的 API Keys。
LLAMA_CLOUD_API_KEY=your-llama-api-key-here OPENAI_API_KEY=your-openai-api-key-here请替换 'your-llama-api-key-here' 和 'your-openai-api-key-here' 为您自己的API Keys。
-
初始化数据库 (可选): 如果需要重新初始化数据库,可以运行 'scripts/db_cleanup.py' 脚本。首次运行 'mcp_server.py' 时会自动创建数据库,并从JSON文件中导入数据。
python scripts/populate_hybrid_db.py --resumes-dir data/llm_processed_resumes
服务器配置
MCP客户端需要配置以下JSON格式信息以连接到HR智能助手服务器:
{ "serverName": "hr_intelligence_mcp_server", // 服务器名称,可自定义 "command": "python", // 启动服务器的命令 "args": [ // 启动命令的参数 "mcp_server.py" // 指向 mcp_server.py 脚本 ] }
基本使用方法
-
启动MCP服务器:
python mcp_server.py服务器默认监听 8000 端口。
-
使用MCP客户端或HTTP请求测试工具: 可以使用仓库中提供的 'mcp_client.py' 示例客户端测试MCP工具,或者直接使用HTTP请求调用服务器提供的API endpoints (例如使用 curl 或 Postman)。
例如,使用 'mcp_client.py' 测试 'search_by_role_tool':
python mcp_client.py或者,使用 HTTP POST 请求调用 'search_by_role' 工具 (API endpoint: '/tools/search_by_role'):
curl -X POST -H "Content-Type: application/json" -d '{"keywords": "软件工程师"}' http://localhost:8000/tools/search_by_role请参考 'MCP_TOOLS_README.md' 文件了解更多关于MCP工具的详细使用方法和参数说明。
信息
分类
商业系统