使用说明
项目简介
OpenRouter多模态MCP服务器是一个基于Model Context Protocol (MCP) 构建的应用后端,它利用OpenRouter.ai提供的多样化模型生态系统,为LLM客户端提供强大的文本聊天和图像分析功能。该服务器旨在简化多模态LLM应用的开发流程,提供标准化的接口和高效的资源管理。
主要功能点
- 文本聊天: 支持访问OpenRouter.ai的所有聊天模型,包括简单的文本对话和多模态对话,并可配置温度等参数。
- 图像分析: 支持单张和多张图像分析,可自定义提问,自动优化图像大小,并支持多种图像来源(本地文件、URL、Data URL)。
- 模型选择: 支持搜索和筛选OpenRouter.ai提供的模型,验证模型ID,并获取详细模型信息,支持默认模型配置。
- 性能优化: 具备智能模型信息缓存、指数退避重试和自动速率限制处理机制,确保服务稳定性和效率。
安装步骤
本MCP服务器提供了多种安装方式:
方式一:npm 全局安装
npm install -g @stabgan/openrouter-mcp-multimodal
方式二:Docker 运行
docker run -i -e OPENROUTER_API_KEY=your-api-key-here stabgandocker/openrouter-mcp-multimodal:latest
服务器配置
MCP客户端需要配置以下信息以连接到OpenRouter多模态MCP服务器。请根据您的实际使用场景选择合适的配置,并将以下JSON配置添加到您的MCP客户端设置文件中 (例如 'cline_mcp_settings.json' 或 'claude_desktop_config.json')。
配置选项一:使用 npx (Node.js)
{ "mcpServers": { "openrouter": { "command": "npx", // 启动命令,使用 npx 运行 npm 包 "args": [ "-y", "@stabgan/openrouter-mcp-multimodal" // npm 包名 ], "env": { "OPENROUTER_API_KEY": "your-api-key-here", // 您的 OpenRouter API 密钥,**请替换为您的实际密钥** "DEFAULT_MODEL": "qwen/qwen2.5-vl-32b-instruct:free" // (可选) 默认使用的模型,**可以根据需要修改** } } } }
配置选项二:使用 uv (Python 包管理器)
{ "mcpServers": { "openrouter": { "command": "uv", // 启动命令,使用 uv 运行 Python 模块 "args": [ "run", "-m", "openrouter_mcp_multimodal" // Python 模块名 ], "env": { "OPENROUTER_API_KEY": "your-api-key-here", // 您的 OpenRouter API 密钥,**请替换为您的实际密钥** "DEFAULT_MODEL": "qwen/qwen2.5-vl-32b-instruct:free" // (可选) 默认使用的模型,**可以根据需要修改** } } } }
配置选项三:使用 Docker
{ "mcpServers": { "openrouter": { "command": "docker", // 启动命令,使用 docker 运行容器 "args": [ "run", "--rm", // 容器退出后自动删除 "-i", // 保持 STDIN 打开 "-e", "OPENROUTER_API_KEY=your-api-key-here", // 通过环境变量传递 OpenRouter API 密钥,**请替换为您的实际密钥** "-e", "DEFAULT_MODEL=qwen/qwen2.5-vl-32b-instruct:free", // (可选) 通过环境变量传递默认模型,**可以根据需要修改** "stabgandocker/openrouter-mcp-multimodal:latest" // Docker 镜像名称和标签 ] } } }
配置选项四:使用 Smithery (推荐)
{ "mcpServers": { "openrouter": { "command": "smithery", // 启动命令,使用 Smithery 运行 "args": [ "run", "stabgan/openrouter-mcp-multimodal" // Smithery 组件名称 ], "env": { "OPENROUTER_API_KEY": "your-api-key-here", // 您的 OpenRouter API 密钥,**请替换为您的实际密钥** "DEFAULT_MODEL": "qwen/qwen2.5-vl-32b-instruct:free" // (可选) 默认使用的模型,**可以根据需要修改** } } } }
注意:
- OPENROUTER_API_KEY 是连接 OpenRouter.ai 所必需的 API 密钥,请务必替换为您的实际密钥。您可以在 OpenRouter Keys 获取。
- DEFAULT_MODEL 是可选配置,用于设置默认使用的模型。如果您不设置,服务器将使用 'qwen/qwen2.5-vl-32b-instruct:free' 作为默认模型。您可以根据需要修改为其他模型。
- Smithery 是推荐的部署方式,如果您的环境支持 Smithery,可以简化部署流程。
基本使用方法
- 启动 MCP 服务器: 根据您选择的安装方式和配置,启动 OpenRouter 多模态 MCP 服务器。
- 配置 MCP 客户端: 在您的 MCP 客户端 (例如 Cline, Claude Desktop 等) 中,配置上述服务器配置信息,确保客户端能够连接到 MCP 服务器。
- 使用 MCP 工具: 在 MCP 客户端中,您可以使用服务器提供的工具,例如 'mcp_openrouter_chat_completion' (文本聊天) 和 'mcp_openrouter_analyze_image' (图像分析) 等,具体工具的使用方法和参数可以参考仓库的 'examples' 目录下的示例代码。
- 查看示例代码: 仓库的 'examples' 目录下提供了 JavaScript 和 Python 示例代码,展示了如何使用 MCP 客户端与该服务器进行交互,包括文本聊天、图像分析、模型搜索等功能。您可以参考这些示例代码来了解如何使用该 MCP 服务器。
信息
分类
AI与计算