LLM Bridge MCP 使用说明
项目简介
LLM Bridge MCP 是一个 MCP 服务器实现,它充当 LLM 客户端和多个大型语言模型 (LLM) 提供商(如 OpenAI, Anthropic, Google, DeepSeek 等)之间的桥梁。通过标准化的 MCP 协议,它为客户端提供统一的接口来调用不同 LLM 供应商的模型,简化了多模型应用开发和模型切换的复杂性。
主要功能点
- 统一的 LLM 接口: 支持通过相同的接口调用来自不同 LLM 提供商的模型,例如 OpenAI 的 GPT 系列、Anthropic 的 Claude 系列、Google 的 Gemini 系列和 DeepSeek 模型。
- 工具 (Tools) 支持: 提供 'run_llm' 工具,允许客户端通过 MCP 协议调用服务器来执行 LLM 推理任务。
- 可配置的模型参数: 'run_llm' 工具支持灵活的参数配置,如 'model_name' (模型名称), 'temperature' (温度系数), 'max_tokens' (最大 token 数) 和 'system_prompt' (系统提示词),以满足不同的应用场景需求。
- 基于 Pydantic AI: 利用 Pydantic AI 库构建,保证了类型安全和数据验证。
- 使用量跟踪: 提供 LLM 使用量跟踪和指标,方便用户监控和管理 LLM 资源。
安装步骤
-
克隆仓库:
git clone https://github.com/sjquant/llm-bridge-mcp.git cd llm-bridge-mcp -
安装 'uv' (如果尚未安装): 'uv' 是项目依赖的包管理器。根据你的操作系统选择合适的安装方式,参考 uv 安装指南。例如,在 macOS 上可以使用 'brew install uv'。
-
配置 API 密钥: 在项目根目录下创建 '.env' 文件,并填入你的 LLM 提供商 API 密钥。你需要根据你计划使用的 LLM 模型配置相应的密钥,例如:
OPENAI_API_KEY=你的 OpenAI API 密钥 ANTHROPIC_API_KEY=你的 Anthropic API 密钥 GOOGLE_API_KEY=你的 Google API 密钥 DEEPSEEK_API_KEY=你的 DeepSeek API 密钥
服务器配置 (MCP 客户端配置)
要让 MCP 客户端(例如 Claude Desktop 或 Cursor)连接到 LLM Bridge MCP 服务器,你需要在客户端的配置文件中添加服务器配置信息。以下是一个配置示例,通常你需要在客户端的 MCP 服务器配置 (例如 Claude Desktop 的配置文件 或 Cursor 的 '.cursor/mcp.json' 文件) 中添加类似下面的 JSON 配置:
"mcpServers": { "llm-bridge": { // 服务器名称,客户端内唯一标识符,可以自定义 "command": "uvx", // 启动服务器的命令,这里假设 uvx 可执行文件在你的 PATH 环境变量中 "args": [ // 传递给启动命令的参数 "llm-bridge-mcp" // 运行 llm-bridge-mcp 的入口点,对应 main.py 文件 ], "env": { // 环境变量,通常用于传递 API 密钥,也可以在 .env 文件中配置 "OPENAI_API_KEY": "你的 OpenAI API 密钥", "ANTHROPIC_API_KEY": "你的 Anthropic API 密钥", "GOOGLE_API_KEY": "你的 Google API 密钥", "DEEPSEEK_API_KEY": "你的 DeepSeek API 密钥" } } }
注意:
- 请确保 'uvx' 命令在你的系统 PATH 环境变量中可用。如果不可用,你需要提供 'uvx' 可执行文件的完整路径作为 'command' 的值。你可以使用 'which uvx' (macOS/Linux) 或 'where.exe uvx' (Windows) 命令查找 'uvx' 的完整路径。
- 'env' 部分的 API 密钥配置是可选的,如果你已经在项目根目录下的 '.env' 文件中配置了 API 密钥,则可以省略 'env' 部分。但是,如果在客户端配置中配置了 'env',它可能会覆盖 '.env' 文件中的配置。
- 'server name' ("llm-bridge" 在示例中) 可以自定义,用于在客户端中唯一标识这个 MCP 服务器连接。
基本使用方法
-
启动 LLM Bridge MCP 服务器。 当你在客户端配置好服务器信息后,客户端通常会自动启动 MCP 服务器。 或者,你也可以手动在命令行中进入项目根目录,并运行 'uvx llm-bridge-mcp' 命令来启动服务器。
-
在 MCP 客户端中,你可以使用 'run_llm' 工具来调用 LLM 模型。 具体的调用方式取决于你的 MCP 客户端。 通常,你需要指定工具名称 'run_llm',并提供相应的参数,例如 'prompt' (你想要发送给 LLM 的提示语), 'model_name' (要使用的模型名称,例如 "openai:gpt-4o-mini"), 'temperature' 等。
例如,在 Claude Desktop 或 Cursor 中,你可能会在聊天界面中使用特定的语法来调用 'run_llm' 工具,并传入参数。 具体语法请参考你使用的 MCP 客户端的文档。
一个典型的 'run_llm' 工具调用可能包含 'prompt' 参数,例如让 LLM 总结一段文本,或者生成一段代码。 服务器会将你的请求转发给指定的 LLM 提供商,并将 LLM 的响应返回给客户端。
信息
分类
AI与计算