项目简介

XMRT.io AI生态协调中心是一个功能强大的后端服务,旨在标准化地向大型语言模型(LLM)客户端提供上下文信息和功能。它集成AI智能体、实时数据流、任务编排、GitHub集成以及语音/虚拟形象生成,支持LLM应用进行安全、可扩展的上下文服务。该系统采用FastAPI作为后端框架,并通过Supabase Edge Functions与真实世界数据和AI服务无缝连接。

主要功能点

  • 资源托管与数据访问: 托管和管理各类数据资源,提供对挖掘数据、GitHub活动、系统指标、设备连接等实时数据的访问能力。
  • 工具注册与执行: 允许LLM调用外部功能,例如:
    • GitHub操作: 提交代码、创建拉取请求、发布问题。
    • AI生成: 与Gemini AI进行文本聊天、图像分析、生成自主讨论和多模态内容(语音/虚拟形象)。
    • 任务编排: 创建、更新和管理系统内部任务。
    • Python代码执行: 通过边缘函数执行指定的Python代码。
  • Prompt模板与AI智能体: 定义并利用多个人格化的AI智能体(如技术代理、DAO代理、采矿代理、营销代理、通用代理、Eliza),每个智能体都有预设的系统提示和专业领域,支持可定制的LLM交互模式。
  • 实时通信与事件流: 通过Redis事件总线和WebSocket/SocketIO实现跨系统实时通信,提供实时的mCP活动流,并在前端展示。
  • 系统监控与自动化: 包含健康检查、性能监控、自动恢复机制,确保系统高可用性和生产环境的稳定性。

安装步骤

  1. 克隆仓库:

    git clone https://github.com/DevGruGold/XMRT.io.git
    cd XMRT.io
  2. 安装依赖:

    pip install -r requirements.txt
  3. 配置环境变量: 复制'.env.template'为'.env',并根据需要配置以下环境变量。至少需要配置 'REDIS_URL' 和 'REDIS_TOKEN' (如果使用Upstash Redis),以及 'GEMINI_API_KEY' (如果使用Gemini AI)。GitHub相关功能可能需要 'GITHUB_TOKEN' 和 'GITHUB_USERNAME'。

    cp .env.template .env
    # 编辑 .env 文件,填入您的密钥和配置
  4. 运行FastAPI后端服务器:

    uvicorn server:app --host 0.0.0.0 --port 8000
  5. (可选) 运行Streamlit前端 (在另一个终端中):

    streamlit run streamlit_boardroom.py

服务器配置 (供MCP客户端连接使用)

MCP客户端需要以下信息来连接XMRT.io MCP服务器。请根据您的实际部署环境替换 'host' 地址和 'port' 端口。

{
  "server_name": "XMRT.io MCP Gateway",
  "description": "提供AI智能体交互、实时数据与工具调用服务的MCP服务器,支持Github自动化、AI内容生成、任务编排等功能。",
  "command": "uvicorn",
  "args": [
    "server:app",
    "--host", "0.0.0.0",
    "--port", "8000"
  ],
  "endpoints": {
    "health": {
      "method": "GET",
      "path": "/api/mcp/health",
      "description": "检查MCP Gateway的健康状态和可用性。"
    },
    "activity_push": {
      "method": "POST",
      "path": "/api/mcp/activity",
      "description": "接收并存储来自其他MCP服务器的实时活动更新。"
    },
    "activity_fetch": {
      "method": "GET",
      "path": "/api/mcp/activities",
      "description": "获取前端显示的最新的实时活动列表。"
    },
    "command_execution": {
      "method": "POST",
      "path": "/api/mcp/command",
      "description": "执行来自MCP服务器的实际命令,如获取GitHub活动或生成AI响应。"
    },
    "statistics": {
      "method": "GET",
      "path": "/api/mcp/stats",
      "description": "获取生态系统的实时统计数据和指标。"
    },
    "github_webhook": {
      "method": "POST",
      "path": "/api/mcp/github_webhook",
      "description": "接收并处理来自GitHub的Webhooks事件。"
    }
  },
  "capabilities": [
    "AI Agent Interaction",
    "Real-time Data Access",
    "GitHub Automation",
    "Task Orchestration",
    "Multimodal Output (Voice/Avatar)",
    "System Monitoring"
  ]
}

基本使用方法

一旦服务器启动,MCP客户端就可以通过配置的API端点与XMRT.io MCP Gateway进行交互。

  • 健康检查: 向 'GET /api/mcp/health' 发送请求以检查服务器状态。

  • 获取活动: 向 'GET /api/mcp/activities' 发送请求以获取实时生态系统活动。

  • 执行命令 (调用工具): 向 'POST /api/mcp/command' 发送JSON请求体,例如调用AI生成响应或获取GitHub活动:

    {
      "command_type": "generate_ai_response",
      "params": {
        "message": "Explain the latest XMRT mining updates.",
        "agent": "mining_agent"
      }
    }

    {
      "command_type": "fetch_github_activity",
      "params": {}
    }

信息

分类

AI与计算