项目简介

本项目是一个遵循 Model Context Protocol (MCP) 标准的服务器,旨在让 AI 助手(如兼容 MCP 的大语言模型客户端)能够访问和分析您的 Intercom 客户支持数据。通过提供结构化的数据和功能接口,AI 可以更智能地处理客户咨询和管理工单。

主要功能

  • 查询对话记录: 根据客户(通过邮箱或 ID)、日期范围和关键词搜索 Intercom 中的对话记录。
  • 查询工单: 根据工单状态(开放、待处理、已解决)或客户(通过邮箱或 ID)搜索 Intercom 中的工单,支持日期过滤。
  • 支持通过邮箱内容搜索无对应联系人的对话。

安装步骤

要运行此服务器,您需要 Node.js (18.0.0 或更高版本) 和一个 Intercom 账号及 API 访问令牌。

  1. 获取 Intercom API 令牌: 登录您的 Intercom 账号,在设置中找到 API 访问令牌。
  2. 安装服务器:
    • 使用 NPM: 打开终端,运行 'npm install -g mcp-server-for-intercom'。
  3. 设置 API 令牌: 在运行服务器的终端中,设置环境变量:'export INTERCOM_ACCESS_TOKEN="您的API令牌"' (将 '您的API令牌' 替换为您的实际令牌)。
  4. 运行服务器: 在设置好环境变量的终端中,运行 'intercom-mcp'。

或者使用 Docker:

  1. 确保 Docker 已安装并运行。
  2. 构建 Docker 镜像:在克隆的仓库根目录打开终端,运行 'docker build -t mcp-intercom .'
  3. 运行容器:'docker run --rm -it -p 3000:3000 -p 8080:8080 -e INTERCOM_ACCESS_TOKEN="您的API令牌" mcp-intercom:latest' (将 '您的API令牌' 替换为您的实际令牌)。

MCP 客户端配置

要将此服务器连接到兼容 MCP 的 AI 客户端(如 Claude Desktop),您需要在客户端的配置中添加此服务器的信息。配置通常是一个 JSON 文件,您需要指定如何启动此服务器进程,以便客户端可以通过 Stdio 协议与其通信。

以下是一个示例配置片段(具体格式请参考您的 MCP 客户端文档):

{
  "mcpServers": {
    "intercom-mcp": {
      "command": "intercom-mcp", // 用于启动服务器的命令
      "args": [], // 启动命令的参数列表
      "env": {
        "INTERCOM_ACCESS_TOKEN": "your_intercom_api_token" // 将您的API令牌作为环境变量传递给服务器进程
      }
    }
    // ... 其他MCP服务器配置
  }
}

请将 '"your_intercom_api_token"' 替换为您的实际 Intercom API 令牌。客户端启动时会执行指定的 'command' 并传递环境变量,然后通过标准输入/输出与服务器进行 MCP JSON-RPC 通信。

基本使用方法

成功安装和配置后,兼容 MCP 的 AI 助手将能够识别并调用此服务器提供的工具。当您向 AI 提出需要访问 Intercom 数据的问题(例如:“查找上周关于账单的对话”、“查看所有开放的工单”、“告诉我客户 '[email protected]' 最近的工单”),AI 助手会通过 MCP 协议调用相应的工具(如 'list_conversations', 'search_tickets_by_status', 'search_conversations_by_customer' 等),服务器会执行查询并返回结果给 AI,以便 AI 生成回答或执行进一步操作。

信息

分类

商业系统