使用说明

项目简介

OpenRouter多模态MCP服务器是一个基于Model Context Protocol (MCP) 构建的应用后端,它利用OpenRouter.ai提供的多样化模型生态系统,为LLM客户端提供强大的文本聊天和图像分析功能。该服务器旨在简化多模态LLM应用的开发流程,提供标准化的接口和高效的资源管理。

主要功能点

  • 文本聊天: 支持访问OpenRouter.ai的所有聊天模型,包括简单的文本对话和多模态对话,并可配置温度等参数。
  • 图像分析: 支持单张和多张图像分析,可自定义提问,自动优化图像大小,并支持多种图像来源(本地文件、URL、Data URL)。
  • 模型选择: 支持搜索和筛选OpenRouter.ai提供的模型,验证模型ID,并获取详细模型信息,支持默认模型配置。
  • 性能优化: 具备智能模型信息缓存、指数退避重试和自动速率限制处理机制,确保服务稳定性和效率。

安装步骤

本MCP服务器提供了多种安装方式:

方式一:npm 全局安装

npm install -g @stabgan/openrouter-mcp-multimodal

方式二:Docker 运行

docker run -i -e OPENROUTER_API_KEY=your-api-key-here stabgandocker/openrouter-mcp-multimodal:latest

服务器配置

MCP客户端需要配置以下信息以连接到OpenRouter多模态MCP服务器。请根据您的实际使用场景选择合适的配置,并将以下JSON配置添加到您的MCP客户端设置文件中 (例如 'cline_mcp_settings.json' 或 'claude_desktop_config.json')。

配置选项一:使用 npx (Node.js)

{
  "mcpServers": {
    "openrouter": {
      "command": "npx",  // 启动命令,使用 npx 运行 npm 包
      "args": [
        "-y",
        "@stabgan/openrouter-mcp-multimodal" // npm 包名
      ],
      "env": {
        "OPENROUTER_API_KEY": "your-api-key-here", // 您的 OpenRouter API 密钥,**请替换为您的实际密钥**
        "DEFAULT_MODEL": "qwen/qwen2.5-vl-32b-instruct:free" // (可选) 默认使用的模型,**可以根据需要修改**
      }
    }
  }
}

配置选项二:使用 uv (Python 包管理器)

{
  "mcpServers": {
    "openrouter": {
      "command": "uv", // 启动命令,使用 uv 运行 Python 模块
      "args": [
        "run",
        "-m",
        "openrouter_mcp_multimodal" // Python 模块名
      ],
      "env": {
        "OPENROUTER_API_KEY": "your-api-key-here", // 您的 OpenRouter API 密钥,**请替换为您的实际密钥**
        "DEFAULT_MODEL": "qwen/qwen2.5-vl-32b-instruct:free" // (可选) 默认使用的模型,**可以根据需要修改**
      }
    }
  }
}

配置选项三:使用 Docker

{
  "mcpServers": {
    "openrouter": {
      "command": "docker", // 启动命令,使用 docker 运行容器
      "args": [
        "run",
        "--rm", // 容器退出后自动删除
        "-i",   // 保持 STDIN 打开
        "-e", "OPENROUTER_API_KEY=your-api-key-here", // 通过环境变量传递 OpenRouter API 密钥,**请替换为您的实际密钥**
        "-e", "DEFAULT_MODEL=qwen/qwen2.5-vl-32b-instruct:free", // (可选) 通过环境变量传递默认模型,**可以根据需要修改**
        "stabgandocker/openrouter-mcp-multimodal:latest" // Docker 镜像名称和标签
      ]
    }
  }
}

配置选项四:使用 Smithery (推荐)

{
  "mcpServers": {
    "openrouter": {
      "command": "smithery", // 启动命令,使用 Smithery 运行
      "args": [
        "run",
        "stabgan/openrouter-mcp-multimodal" // Smithery 组件名称
      ],
      "env": {
        "OPENROUTER_API_KEY": "your-api-key-here", // 您的 OpenRouter API 密钥,**请替换为您的实际密钥**
        "DEFAULT_MODEL": "qwen/qwen2.5-vl-32b-instruct:free" // (可选) 默认使用的模型,**可以根据需要修改**
      }
    }
  }
}

注意:

  • OPENROUTER_API_KEY 是连接 OpenRouter.ai 所必需的 API 密钥,请务必替换为您的实际密钥。您可以在 OpenRouter Keys 获取。
  • DEFAULT_MODEL 是可选配置,用于设置默认使用的模型。如果您不设置,服务器将使用 'qwen/qwen2.5-vl-32b-instruct:free' 作为默认模型。您可以根据需要修改为其他模型。
  • Smithery 是推荐的部署方式,如果您的环境支持 Smithery,可以简化部署流程。

基本使用方法

  1. 启动 MCP 服务器: 根据您选择的安装方式和配置,启动 OpenRouter 多模态 MCP 服务器。
  2. 配置 MCP 客户端: 在您的 MCP 客户端 (例如 Cline, Claude Desktop 等) 中,配置上述服务器配置信息,确保客户端能够连接到 MCP 服务器。
  3. 使用 MCP 工具: 在 MCP 客户端中,您可以使用服务器提供的工具,例如 'mcp_openrouter_chat_completion' (文本聊天) 和 'mcp_openrouter_analyze_image' (图像分析) 等,具体工具的使用方法和参数可以参考仓库的 'examples' 目录下的示例代码。
  4. 查看示例代码: 仓库的 'examples' 目录下提供了 JavaScript 和 Python 示例代码,展示了如何使用 MCP 客户端与该服务器进行交互,包括文本聊天、图像分析、模型搜索等功能。您可以参考这些示例代码来了解如何使用该 MCP 服务器。

信息

分类

AI与计算