项目简介

AI Advisor不仅是一个强大的命令行工具,可以并行查询多个AI模型,还集成了一个MCP服务器。这个服务器允许用户通过Model Context Protocol (MCP) 与兼容的LLM客户端(如Claude Code、Claude Desktop)集成,将AI Advisor的强大功能作为工具提供给LLM,从而增强LLM的上下文理解和功能调用能力。

主要功能点

  • 多模型AI咨询: 允许LLM通过调用MCP工具,同时向OpenAI、Anthropic、OpenRouter等多个AI模型发送咨询请求,获取多样化的响应。
  • 上下文文件管理: LLM客户端可以通过MCP服务器附加文件和目录到提示词中,为AI模型提供丰富的代码或项目上下文。
  • 智能重试与故障转移: 自动处理AI模型响应失败,智能重试或切换到其他可用模型。
  • 实时成本追踪: 记录每次AI咨询的Token用量和预估成本,帮助用户管理开销。
  • 配置管理: 允许LLM客户端通过MCP工具查询和修改AI服务的API密钥、模型列表、默认设置和定价策略。
  • 诊断与日志: 提供系统健康检查和日志查看功能,方便LLM客户端进行诊断。

安装步骤

  1. 全局安装AI Advisor: 在命令行中运行以下命令全局安装AI Advisor:
    npm install -g @light-merlin-dark/aia
    或者使用Bun:
    bun install -g @light-merlin-dark/aia
  2. 配置AI服务(首次运行将引导): 运行任意一个'aia'命令,例如:
    aia consult "你好,AI!"
    系统将启动交互式向导,引导您配置OpenAI、Anthropic或OpenRouter等AI服务的API密钥和默认模型。

服务器配置

AI Advisor的MCP服务器通过标准输入/输出(Stdio)与MCP客户端通信。要将AI Advisor的MCP服务器添加到支持MCP的LLM客户端,您通常需要提供以下配置信息:

  • 服务器名称 (Server Name): 'ai-advisor'
  • 连接类型 (Type): 'stdio'
  • 启动命令 (Command): 'ai-advisor-mcp'
  • 环境变量 (Environment Variables): (可选) 'NODE_NO_WARNINGS: "1"'

以下是一个示例JSON配置,您可以在MCP客户端中进行设置:

{
  "type": "stdio",
  "command": "ai-advisor-mcp",
  "env": {
    "NODE_NO_WARNINGS": "1"
  }
}

请注意,'ai-advisor-mcp' 是AI Advisor全局安装后可直接执行的命令。如果您的客户端需要完整的命令路径,可能需要查找其安装位置。

基本使用方法

一旦MCP服务器配置完成并连接到您的LLM客户端,您就可以通过客户端的界面或编程接口调用AI Advisor提供的工具。例如,客户端可以发送以下请求:

  • 调用 'consult' 工具: 客户端可以发送一个包含用户提示词、所需AI模型和可选文件路径的请求,让AI Advisor进行多模型咨询。
  • 调用 'config-list' 工具: 客户端可以请求获取AI Advisor的当前配置信息,包括已配置的服务、模型和全局设置。
  • 调用 'config-set' 工具: 客户端可以更新特定AI服务的API密钥或模型配置,实现动态管理。

信息

分类

AI与计算