使用说明
项目简介
EventsAI 推荐MCP服务器是一个应用后端,它基于 Model Context Protocol (MCP) 构建,旨在为LLM客户端提供事件推荐服务。该服务器能够从多个数据源抓取事件信息,进行去重和个性化推荐,并通过MCP协议将推荐结果以结构化的方式提供给客户端。
主要功能点
- 事件推荐工具 (recommendations):
- 根据预先抓取的事件数据,生成个性化的事件推荐列表。
- 允许客户端指定返回的推荐事件数量。
- 以HTML格式返回推荐结果,方便LLM客户端进行解析和展示。
- 个性化问候资源 (greeting://{name}):
- 提供简单的个性化问候语,可以作为MCP资源示例进行访问。
- 回声Prompt模板 (echo_prompt):
- 提供一个简单的回声Prompt模板,用于演示Prompt模板的基本用法。
安装步骤
-
构建开发容器 (推荐): 按照仓库 'README.md' 中的 "Running the mcp server" -> "WSL and Claude Desktop" 指引,首先需要构建 '.devcontainer/Dockerfile' 中定义的开发容器。 这通常涉及使用 Docker 或其他容器管理工具。
-
运行 MCP 服务器: 构建完开发容器后,可以参考 'README.md' 中提供的 'mcpServers' 配置来运行 MCP 服务器。 该配置指示使用 WSL 执行 Docker 命令来启动服务器。
服务器配置
MCP客户端需要配置以下 JSON,才能连接到 EventsAI 推荐MCP服务器。 请将以下配置添加到您的 MCP 客户端配置中 (例如 Claude 的 Workspaces 设置):
{ "mcpServers": { "events-ai": { // 服务器名称,客户端用于标识和连接 "command": "wsl.exe", // 运行服务器的命令,这里使用 WSL 来执行 Docker "args": [ // 传递给命令的参数列表 "docker", "run", // Docker 运行命令 "-v", "/root/workspace/events-ai:/app", // 挂载本地 workspace 目录到容器 /app 目录,确保容器可以访问项目代码 "-i", "vsc-events-ai-5b6c547e5b8561359a378f2d1037c7d8acb17e98ae6c4925f95dc8a9635b2157", // 使用的 Docker 镜像名称,需要替换为您实际构建的镜像名称 "mcp", "run", "/app/mcp/server/server.py" // 在容器内执行 mcp run 命令,并指定服务器启动脚本路径 ] } } }
基本使用方法
配置完成后,在 MCP 客户端中,您可以使用以下方式与 EventsAI 推荐MCP服务器交互:
-
调用 'recommendations' 工具: 客户端可以调用 'recommendations' 工具来获取事件推荐列表。 例如,在 Claude 客户端中,您可以输入类似 '@events-ai recommendations()' 的指令来触发工具调用。 该工具支持可选参数 'number_of_items' 来控制返回的推荐数量,例如 '@events-ai recommendations(number_of_items: 5)' 获取 5 个推荐事件。
-
访问 'greeting' 资源: 客户端可以访问 'greeting' 资源来获取个性化问候语。 例如,在 Claude 客户端中,您可以输入类似 '@events-ai greeting://World' 的指令来访问资源,将 'World' 替换为您想要问候的名字。
-
使用 'echo_prompt' Prompt模板: 客户端可以使用 'echo_prompt' Prompt模板来测试 Prompt 功能。 例如,在 Claude 客户端中,您可以使用 '@events-ai echo_prompt(message: "Hello MCP Server")' 来发送消息并查看服务器的回应。
注意:
- 确保您已正确构建 Docker 镜像,并将配置中的镜像名称替换为实际的镜像名称。
- 首次运行前,可能需要先按照 'README.md' 中的说明,预先抓取事件数据并生成推荐结果,以便 'recommendations' 工具能够返回有效数据。
信息
分类
AI与计算