项目简介

Chat Relay 是一个系统,旨在连接支持OpenAI API或Model Context Protocol (MCP) 的客户端应用(如某些IDE、聊天客户端)与网页版的AI聊天界面(如Gemini、AI Studio、ChatGPT、Claude)。通过一个浏览器扩展和API Relay服务器,它使得那些没有公共API的AI模型也能被客户端应用使用。

本项目分析的 MCP Utility Server 是 Chat Relay 的一个可选组件。它本身是一个独立的MCP服务器实现,提供了一系列可以通过MCP协议调用的工具,进一步扩展了与AI交互或执行自动化任务的能力。

主要功能点

  • 文件操作工具: 提供 'read_file'、'write_file'、'edit_file' 等工具,允许通过MCP客户端安全地读取、写入和编辑本地文件内容。这些工具在执行文件操作的同时,会将文件内容或编辑信息发送给配置的AI聊天界面进行分析或处理,并将AI的回复结果返回给调用者。
  • 消息发送工具: 提供 'send_message' 工具,允许通过API Relay服务器向浏览器扩展控制的AI聊天界面发送消息,并获取AI的回复。
  • MCP协议支持: 基于 'mcp-framework' 实现,遵循MCP协议标准,支持Stdio传输协议,可与任何兼容Stdio传输的MCP客户端连接。

安装步骤

要安装和运行 MCP Utility Server,您需要 Node.js (v14+) 和 npm (v6+) 环境。

  1. 首先,克隆整个 Chat Relay 仓库:
    git clone https://github.com/BinaryBeastMaster/chat-relay.git
    cd chat-relay
  2. 进入 'mcp-server' 目录:
    cd mcp-server
  3. 构建项目:
    npm run build
  4. 打包项目:
    npm pack
    执行此命令后,会在当前目录下生成一个'.tgz'文件,文件名类似于 'chat-relay-mcp-0.0.1.tgz'。
  5. 全局安装打包好的文件:
    npm install -g ./chat-relay-mcp-0.0.1.tgz
    请将路径 './chat-relay-mcp-0.0.1.tgz' 替换为实际生成的'.tgz'文件的完整路径。安装成功后,'chat-relay-mcp' 命令将全局可用。
  6. 运行 MCP 服务器: 在终端中执行以下命令启动 MCP 服务器:
    chat-relay-mcp
    服务器将通过 Stdio 协议启动,等待 MCP 客户端连接。

MCP客户端配置

MCP 客户端应用(如支持MCP的IDE或聊天应用)需要配置连接到此服务器。由于使用 Stdio 协议,客户端通常需要配置启动服务器进程的命令行。以下是一个示例配置信息,您需要将其添加到您的MCP客户端的服务器列表中:

{
  "serverName": "Chat Relay MCP Utility",
  "command": "chat-relay-mcp",
  "args": [],
  "description": "Connects to the Chat Relay MCP Utility server, providing file system access and chat forwarding tools via MCP.",
  "transport": "stdio"
  // 其他可选配置,如环境变量等
}

添加此配置后,您的MCP客户端应该能够发现并连接到“Chat Relay MCP Utility”服务器,并列出它提供的工具。

基本使用方法

  1. 按照上述步骤安装并启动 'chat-relay-mcp' 服务器。
  2. 确保 Chat Relay 的 API Relay Server(通常在 'http://localhost:3003')和浏览器扩展也正在运行并正确配置。
  3. 在您的支持 MCP 的客户端应用中,使用提供的配置连接到 'Chat Relay MCP Utility' 服务器。
  4. 连接成功后,您可以在客户端中查看并调用服务器公开的工具,例如 'read_file'、'write_file'、'edit_file' 和 'send_message'。
  5. 通过客户端的工具调用接口,您可以向LLM发送文件内容进行分析,或者指示LLM通过'send_message'工具向网页端AI发送消息。

信息

分类

AI与计算