项目简介
本项目是一个遵循 Model Context Protocol (MCP) 标准的服务器,旨在让 AI 助手(如兼容 MCP 的大语言模型客户端)能够访问和分析您的 Intercom 客户支持数据。通过提供结构化的数据和功能接口,AI 可以更智能地处理客户咨询和管理工单。
主要功能
- 查询对话记录: 根据客户(通过邮箱或 ID)、日期范围和关键词搜索 Intercom 中的对话记录。
- 查询工单: 根据工单状态(开放、待处理、已解决)或客户(通过邮箱或 ID)搜索 Intercom 中的工单,支持日期过滤。
- 支持通过邮箱内容搜索无对应联系人的对话。
安装步骤
要运行此服务器,您需要 Node.js (18.0.0 或更高版本) 和一个 Intercom 账号及 API 访问令牌。
- 获取 Intercom API 令牌: 登录您的 Intercom 账号,在设置中找到 API 访问令牌。
- 安装服务器:
- 使用 NPM: 打开终端,运行 'npm install -g mcp-server-for-intercom'。
- 设置 API 令牌: 在运行服务器的终端中,设置环境变量:'export INTERCOM_ACCESS_TOKEN="您的API令牌"' (将 '您的API令牌' 替换为您的实际令牌)。
- 运行服务器: 在设置好环境变量的终端中,运行 'intercom-mcp'。
或者使用 Docker:
- 确保 Docker 已安装并运行。
- 构建 Docker 镜像:在克隆的仓库根目录打开终端,运行 'docker build -t mcp-intercom .'
- 运行容器:'docker run --rm -it -p 3000:3000 -p 8080:8080 -e INTERCOM_ACCESS_TOKEN="您的API令牌" mcp-intercom:latest' (将 '您的API令牌' 替换为您的实际令牌)。
MCP 客户端配置
要将此服务器连接到兼容 MCP 的 AI 客户端(如 Claude Desktop),您需要在客户端的配置中添加此服务器的信息。配置通常是一个 JSON 文件,您需要指定如何启动此服务器进程,以便客户端可以通过 Stdio 协议与其通信。
以下是一个示例配置片段(具体格式请参考您的 MCP 客户端文档):
{ "mcpServers": { "intercom-mcp": { "command": "intercom-mcp", // 用于启动服务器的命令 "args": [], // 启动命令的参数列表 "env": { "INTERCOM_ACCESS_TOKEN": "your_intercom_api_token" // 将您的API令牌作为环境变量传递给服务器进程 } } // ... 其他MCP服务器配置 } }
请将 '"your_intercom_api_token"' 替换为您的实际 Intercom API 令牌。客户端启动时会执行指定的 'command' 并传递环境变量,然后通过标准输入/输出与服务器进行 MCP JSON-RPC 通信。
基本使用方法
成功安装和配置后,兼容 MCP 的 AI 助手将能够识别并调用此服务器提供的工具。当您向 AI 提出需要访问 Intercom 数据的问题(例如:“查找上周关于账单的对话”、“查看所有开放的工单”、“告诉我客户 '[email protected]' 最近的工单”),AI 助手会通过 MCP 协议调用相应的工具(如 'list_conversations', 'search_tickets_by_status', 'search_conversations_by_customer' 等),服务器会执行查询并返回结果给 AI,以便 AI 生成回答或执行进一步操作。
信息
分类
商业系统