项目简介
Chat Relay 是一个系统,旨在连接支持OpenAI API或Model Context Protocol (MCP) 的客户端应用(如某些IDE、聊天客户端)与网页版的AI聊天界面(如Gemini、AI Studio、ChatGPT、Claude)。通过一个浏览器扩展和API Relay服务器,它使得那些没有公共API的AI模型也能被客户端应用使用。
本项目分析的 MCP Utility Server 是 Chat Relay 的一个可选组件。它本身是一个独立的MCP服务器实现,提供了一系列可以通过MCP协议调用的工具,进一步扩展了与AI交互或执行自动化任务的能力。
主要功能点
- 文件操作工具: 提供 'read_file'、'write_file'、'edit_file' 等工具,允许通过MCP客户端安全地读取、写入和编辑本地文件内容。这些工具在执行文件操作的同时,会将文件内容或编辑信息发送给配置的AI聊天界面进行分析或处理,并将AI的回复结果返回给调用者。
- 消息发送工具: 提供 'send_message' 工具,允许通过API Relay服务器向浏览器扩展控制的AI聊天界面发送消息,并获取AI的回复。
- MCP协议支持: 基于 'mcp-framework' 实现,遵循MCP协议标准,支持Stdio传输协议,可与任何兼容Stdio传输的MCP客户端连接。
安装步骤
要安装和运行 MCP Utility Server,您需要 Node.js (v14+) 和 npm (v6+) 环境。
- 首先,克隆整个 Chat Relay 仓库:
git clone https://github.com/BinaryBeastMaster/chat-relay.git cd chat-relay - 进入 'mcp-server' 目录:
cd mcp-server - 构建项目:
npm run build - 打包项目:
执行此命令后,会在当前目录下生成一个'.tgz'文件,文件名类似于 'chat-relay-mcp-0.0.1.tgz'。npm pack - 全局安装打包好的文件:
请将路径 './chat-relay-mcp-0.0.1.tgz' 替换为实际生成的'.tgz'文件的完整路径。安装成功后,'chat-relay-mcp' 命令将全局可用。npm install -g ./chat-relay-mcp-0.0.1.tgz - 运行 MCP 服务器:
在终端中执行以下命令启动 MCP 服务器:
服务器将通过 Stdio 协议启动,等待 MCP 客户端连接。chat-relay-mcp
MCP客户端配置
MCP 客户端应用(如支持MCP的IDE或聊天应用)需要配置连接到此服务器。由于使用 Stdio 协议,客户端通常需要配置启动服务器进程的命令行。以下是一个示例配置信息,您需要将其添加到您的MCP客户端的服务器列表中:
{ "serverName": "Chat Relay MCP Utility", "command": "chat-relay-mcp", "args": [], "description": "Connects to the Chat Relay MCP Utility server, providing file system access and chat forwarding tools via MCP.", "transport": "stdio" // 其他可选配置,如环境变量等 }
添加此配置后,您的MCP客户端应该能够发现并连接到“Chat Relay MCP Utility”服务器,并列出它提供的工具。
基本使用方法
- 按照上述步骤安装并启动 'chat-relay-mcp' 服务器。
- 确保 Chat Relay 的 API Relay Server(通常在 'http://localhost:3003')和浏览器扩展也正在运行并正确配置。
- 在您的支持 MCP 的客户端应用中,使用提供的配置连接到 'Chat Relay MCP Utility' 服务器。
- 连接成功后,您可以在客户端中查看并调用服务器公开的工具,例如 'read_file'、'write_file'、'edit_file' 和 'send_message'。
- 通过客户端的工具调用接口,您可以向LLM发送文件内容进行分析,或者指示LLM通过'send_message'工具向网页端AI发送消息。
信息
分类
AI与计算