项目简介
LLM Router 是一个多功能AI服务路由系统,它不仅兼容标准的OpenAI API协议,还实现了完整的Model Context Protocol (MCP) 服务器功能。该项目能够将多个LLM提供商的服务进行智能聚合,根据负载情况自动路由到最佳提供商,同时提供强大的脚本工具执行环境。
主要功能
- 智能路由:支持多个OpenAI兼容的LLM提供商,根据活跃完成数进行负载均衡
- MCP服务器:完整的MCP协议实现,支持工具发现、执行和代码运行
- 动态工具加载:无需重启服务器即可添加、修改或删除工具脚本
- 脚本执行环境:提供Python风格的脚本执行能力,支持自定义工具
- 工具管理:支持工具搜索、执行,以及远程MCP服务器连接
- 健康监控:自动检测提供商状态,支持故障转移和自动恢复
安装步骤
-
下载构建:
# 从源码构建 go build -o llmrouter . # 或使用任务工具构建多平台版本 task build-all -
配置设置: 创建 'config.toml' 文件,配置服务器端口、LLM提供商信息和工具路径。
-
运行服务器:
./llmrouter server
服务器配置
在MCP客户端中配置以下信息来连接该MCP服务器:
{ "server": "LLM Router MCP Server", "command": "./llmrouter", "args": ["server", "-config", "config.toml"]
配置说明:
- 'command':可执行文件路径
- 'args':启动参数,包括配置文件路径
基本使用
- 启动服务:运行服务器后,可通过HTTP端点访问MCP功能
- 工具发现:使用 '/mcp' 端点搜索和执行可用工具
- 脚本执行:支持运行自定义Python脚本,实现复杂逻辑
工具管理
- 工具脚本存放在指定目录,支持实时编辑生效
- 可通过CLI直接执行工具或脚本
- 支持AI自动工具调用,实现多轮对话中的工具执行
信息
分类
网页与API