项目简介
AI Advisor不仅是一个强大的命令行工具,可以并行查询多个AI模型,还集成了一个MCP服务器。这个服务器允许用户通过Model Context Protocol (MCP) 与兼容的LLM客户端(如Claude Code、Claude Desktop)集成,将AI Advisor的强大功能作为工具提供给LLM,从而增强LLM的上下文理解和功能调用能力。
主要功能点
- 多模型AI咨询: 允许LLM通过调用MCP工具,同时向OpenAI、Anthropic、OpenRouter等多个AI模型发送咨询请求,获取多样化的响应。
- 上下文文件管理: LLM客户端可以通过MCP服务器附加文件和目录到提示词中,为AI模型提供丰富的代码或项目上下文。
- 智能重试与故障转移: 自动处理AI模型响应失败,智能重试或切换到其他可用模型。
- 实时成本追踪: 记录每次AI咨询的Token用量和预估成本,帮助用户管理开销。
- 配置管理: 允许LLM客户端通过MCP工具查询和修改AI服务的API密钥、模型列表、默认设置和定价策略。
- 诊断与日志: 提供系统健康检查和日志查看功能,方便LLM客户端进行诊断。
安装步骤
- 全局安装AI Advisor:
在命令行中运行以下命令全局安装AI Advisor:
或者使用Bun:npm install -g @light-merlin-dark/aiabun install -g @light-merlin-dark/aia - 配置AI服务(首次运行将引导):
运行任意一个'aia'命令,例如:
系统将启动交互式向导,引导您配置OpenAI、Anthropic或OpenRouter等AI服务的API密钥和默认模型。aia consult "你好,AI!"
服务器配置
AI Advisor的MCP服务器通过标准输入/输出(Stdio)与MCP客户端通信。要将AI Advisor的MCP服务器添加到支持MCP的LLM客户端,您通常需要提供以下配置信息:
- 服务器名称 (Server Name): 'ai-advisor'
- 连接类型 (Type): 'stdio'
- 启动命令 (Command): 'ai-advisor-mcp'
- 环境变量 (Environment Variables): (可选) 'NODE_NO_WARNINGS: "1"'
以下是一个示例JSON配置,您可以在MCP客户端中进行设置:
{ "type": "stdio", "command": "ai-advisor-mcp", "env": { "NODE_NO_WARNINGS": "1" } }
请注意,'ai-advisor-mcp' 是AI Advisor全局安装后可直接执行的命令。如果您的客户端需要完整的命令路径,可能需要查找其安装位置。
基本使用方法
一旦MCP服务器配置完成并连接到您的LLM客户端,您就可以通过客户端的界面或编程接口调用AI Advisor提供的工具。例如,客户端可以发送以下请求:
- 调用 'consult' 工具: 客户端可以发送一个包含用户提示词、所需AI模型和可选文件路径的请求,让AI Advisor进行多模型咨询。
- 调用 'config-list' 工具: 客户端可以请求获取AI Advisor的当前配置信息,包括已配置的服务、模型和全局设置。
- 调用 'config-set' 工具: 客户端可以更新特定AI服务的API密钥或模型配置,实现动态管理。
信息
分类
AI与计算