使用说明
项目简介
OpenRouter MCP Server 是一个实现了 Model Context Protocol (MCP) 协议的服务器,它允许 LLM 客户端通过标准化的方式访问 OpenRouter.ai 提供的多种 AI 模型。该服务器充当一个桥梁,简化了与不同 AI 模型的集成过程,并提供了诸如模型信息缓存、速率限制处理和错误管理等增强功能。
主要功能点
- 统一模型访问: 通过 OpenRouter.ai 访问市场上众多领先的 AI 模型,无需为每个模型单独集成。
- 模型信息管理: 自动验证模型有效性,并缓存模型信息以优化性能。
- 工具支持: 提供 'chat_completion'(聊天补全)、'search_models'(搜索模型)、'get_model_info'(获取模型信息)和 'validate_model'(验证模型)等工具,扩展 LLM 应用的功能。
- 性能优化: 内置模型信息缓存、智能速率限制管理和指数退避重试机制,确保稳定高效的访问体验。
- 错误处理: 提供详细的错误信息和针对速率限制、认证问题和网络错误的专门处理。
安装步骤
- 安装 npm 包:
确保你的环境中已安装 Node.js 和 npm。在命令行中执行以下命令安装 OpenRouter MCP Server 包:
npm install @mcpservers/openrouterai
服务器配置
要将 OpenRouter MCP Server 集成到 MCP 客户端(如 Claude 桌面应用),你需要在客户端的 MCP 设置文件中添加以下服务器配置信息。通常,配置文件名为 'cline_mcp_settings.json' 或 'claude_desktop_config.json'。
将以下 JSON 配置添加到 'mcpServers' 字段中,并根据你的实际情况修改 'OPENROUTER_API_KEY' 和 'OPENROUTER_DEFAULT_MODEL' 环境变量:
{ "mcpServers": { "openrouterai": { // 服务器名称,可以自定义 "command": "npx", // 启动服务器的命令,这里使用 npx 执行 npm 包 "args": ["@mcpservers/openrouterai"], // 传递给命令的参数,指定要执行的 npm 包 "env": { // 环境变量配置 "OPENROUTER_API_KEY": "your-api-key-here", // 你的 OpenRouter API 密钥,请替换为实际密钥 "OPENROUTER_DEFAULT_MODEL": "optional-default-model" // 可选的默认模型,例如 "anthropic/claude-2",不设置则在使用 chat_completion 工具时需要显式指定模型 } } } }
请务必将 '"your-api-key-here"' 替换为你从 OpenRouter Keys 获取的 API 密钥。 'OPENROUTER_DEFAULT_MODEL' 是可选的,用于设置 'chat_completion' 工具的默认模型。如果设置了默认模型,则在使用 'chat_completion' 工具时可以不指定模型参数。
基本使用方法
配置完成后,MCP 客户端应该能够检测到并连接到 OpenRouter MCP Server。你可以通过客户端提供的界面或工具调用服务器提供的功能。
可用工具:
- 'chat_completion': 向 OpenRouter.ai 支持的模型发送消息并获取回复。可以指定 'model'(模型名称)、'messages'(对话消息数组)和 'temperature'(采样温度)。如果配置中设置了 'OPENROUTER_DEFAULT_MODEL',则可以省略 'model' 参数。
- 'search_models': 搜索和过滤 OpenRouter.ai 上的可用模型。可以根据关键词、提供商、上下文长度、价格和模型能力进行筛选。
- 'get_model_info': 获取特定模型的详细信息,需要提供 'model' 参数(模型名称)。
- 'validate_model': 验证指定的模型 ID 是否有效,需要提供 'model' 参数(模型名称)。
具体工具的使用方法和参数请参考仓库的 'README.md' 文档中 "Available Tools" 部分的详细描述。在 MCP 客户端中,你可以选择这些工具并根据其参数描述进行调用,以实现与 OpenRouter.ai 模型的交互。
信息
分类
AI与计算