项目简介
这是一个基于 Model Context Protocol (MCP) 实现的应用后端,旨在将 MCP 兼容的 LLM 客户端(如 Claude Desktop, Cursor 等)与 Pearl 提供的先进 AI 助手和人类专家服务连接起来。它通过标准化的接口,允许 LLM 调用外部功能并获取上下文信息,从而扩展其能力边界。
主要功能点
- AI 与专家服务集成: 允许 LLM 客户端通过标准协议访问 Pearl 的 AI 和各领域人类专家(如医疗、法律、技术等)。
- 多种交互模式: 支持纯 AI 问答、AI 辅助专家咨询以及直接与人类专家对话等不同服务模式。
- 会话管理: 维护用户与 AI/专家的对话历史,确保连续性和上下文感知。
- 多种传输协议: 支持通过标准输入输出 (stdio) 和 Server-Sent Events (SSE) 进行通信。
- 工具暴露: 提供标准化的工具供 LLM 调用,触发后台的 AI 或专家服务请求。
- 能力声明: 通过 MCP 协议向客户端声明其提供的资源、工具和 Prompt 模板。
安装步骤
- 准备 Python 环境: 确保你的系统安装了 Python 3.12 或更高版本。
- 克隆仓库: 打开终端或命令行,使用 'git clone https://github.com/Pearl-com/pearl_mcp_server.git' 命令下载项目代码。
- 进入目录: 'cd pearl_mcp_server'。
- 创建并激活虚拟环境:
- Linux/macOS: 'python -m venv .venv' 然后 'source .venv/bin/activate'。
- Windows: 'python -m venv .venv' 然后 '.venv\Scripts\activate'。
- 安装依赖: 运行 'pip install -e .' 安装所需的库。
服务器配置
Pearl MCP 服务器需要你的 Pearl API 密钥才能工作。在启动服务器之前,你需要将你的 API 密钥提供给它。通常,这是通过环境变量或命令行参数完成的。
对于大多数 MCP 客户端,你需要配置客户端如何启动和连接到这个服务器。这通常在客户端的配置文件中指定,包含服务器的名称、启动命令和参数。
关键配置信息:
- 启动命令: 指定执行 'pearl-mcp-server' 命令。
- API 密钥参数: 通过 '--api-key' 参数将你的 Pearl API 密钥传递给启动命令。例如:'--api-key your-api-key-here'。
- 传输方式: 如果使用 stdio (默认),则不需要额外参数;如果使用 SSE,则需要 '--transport sse' 并可能指定 '--port'。
重要: 请务必从 Pearl 官网 联系获取你的 Pearl API 密钥。妥善保管你的密钥,不要将其暴露在公共场合。
基本使用方法
安装并配置完成后,你的 MCP 客户端(如 LLM 应用)将能够检测到并与 Pearl MCP 服务器建立连接。LLM 可以通过调用服务器暴露的工具来与 Pearl 的服务交互:
- 'ask_pearl_ai': 用于获取 Pearl AI 的快速自动回复,适用于一般性查询或需要不同观点时。
- 'ask_pearl_expert': 启动一个由 AI 引导、最终转接给人类专家的会话流程,适用于需要专家介入的复杂问题。
- 'ask_expert': 直接与人类专家进行对话,适用于用户明确要求人工帮助或处理敏感话题。
- 'get_conversation_status': 查询某个会话的状态。
- 'get_conversation_history': 获取某个会话的完整历史记录。
LLM 会根据用户的输入和上下文,智能选择调用哪个工具来提供服务。服务器负责将 LLM 的请求转发到 Pearl 的后台 API,并将结果返回给 LLM 客户端。
信息
分类
AI与计算