使用说明

MPT (multi-provider tool) 是一个命令行实用程序,它能够并行地向多个AI语言模型提供商(OpenAI、Anthropic、Google 和自定义提供商)发送 Prompt 并整合结果。除作为命令行工具外,MPT 还可以作为 MCP (Model Context Protocol) 服务器运行,为兼容 MCP 协议的客户端提供服务。

主要功能点:

  • 多模型支持: 并行查询 OpenAI, Anthropic (Claude), Google (Gemini) 和自定义 LLM 模型,获取多视角结果。
  • 文件上下文: 通过灵活的模式匹配,轻松将代码文件、文档等添加到 Prompt 上下文中,为 LLM 提供更丰富的背景知识。
  • MCP 服务器模式: 作为 MCP 服务器运行,为 MCP 客户端提供统一的接口访问多种 LLM 模型,支持资源、工具和 Prompt 模板等核心 MCP 功能。
  • 环境集成: 支持从管道 (stdin) 接收输入,方便与其他命令行工具组合使用,构建强大的 AI 工作流。
  • 灵活配置: 支持通过命令行参数或环境变量配置 API 密钥、模型参数、超时时间等。

安装步骤:

  1. 安装 Go: 如果还没有安装 Go 语言环境,请先安装 Go (版本 >= 1.20)。
  2. 使用 'go install' 命令安装 MPT:
    go install github.com/umputun/mpt/cmd/mpt@latest
    安装成功后,'mpt' 命令即可在终端中使用。

服务器配置 (MCP Server):

MPT 作为 MCP 服务器运行时,需要配置启动命令和参数,以便 MCP 客户端连接。以下是 MPT MCP 服务器的配置信息示例 (JSON 格式):

{
  "server name": "MPT MCP Server",
  "command": "mpt",
  "args": [
    "--mcp.server",
    "--openai.enabled",    # 启用 OpenAI provider (需要配置 OPENAI_API_KEY 环境变量)
    "--anthropic.enabled", # 启用 Anthropic provider (需要配置 ANTHROPIC_API_KEY 环境变量)
    "--google.enabled"     # 启用 Google provider (需要配置 GOOGLE_API_KEY 环境变量)
  ]
}

参数说明:

  • 'server name': MCP 服务器的名称,可以自定义。
  • 'command': 启动 MCP 服务器的命令,这里是 'mpt'。
  • 'args': 传递给 'mpt' 命令的参数列表,用于配置 MPT 的 MCP 服务器模式和启用的 LLM 提供商。
    • '--mcp.server': 必须参数,启用 MCP 服务器模式。
    • '--openai.enabled', '--anthropic.enabled', '--google.enabled': 可选参数,启用相应的 LLM 提供商。要启用这些 provider,务必提前设置对应的 API Key 环境变量 (例如 'OPENAI_API_KEY', 'ANTHROPIC_API_KEY', 'GOOGLE_API_KEY')。

注意: MCP 客户端需要根据此配置信息启动 MPT 服务器并建立连接。请确保 MCP 客户端能够找到 'mpt' 命令 (已添加到 PATH 环境变量)。

基本使用方法 (MCP Server 模式):

  1. 配置 API Keys: 设置 OpenAI, Anthropic, Google 等 LLM 提供商的 API Keys 为环境变量 (例如 'OPENAI_API_KEY', 'ANTHROPIC_API_KEY', 'GOOGLE_API_KEY')。
  2. 启动 MPT MCP 服务器: 在终端中使用配置好的命令启动 MPT 服务器,例如:
    mpt --mcp.server --openai.enabled --anthropic.enabled --google.enabled
    MPT 将以 MCP 服务器模式运行,并通过标准输入/输出 (stdio) 与 MCP 客户端通信。
  3. 配置 MCP 客户端: 在 MCP 客户端中,配置连接到 MPT MCP 服务器,填入上述 服务器配置 (MCP Server) JSON 信息。
  4. 使用 MCP 客户端: MCP 客户端将通过 MCP 协议与 MPT 服务器通信,用户可以在 MCP 客户端中体验多模型支持、资源访问、工具调用和 Prompt 模板等 MCP 功能,MPT 服务器将作为桥梁,处理客户端请求并调用后端的多个 LLM 提供商。

更多信息: MPT 作为命令行工具的详细使用方法(Prompt 编写、文件上下文、模式匹配等)请参考仓库 README.md 文档。

信息

分类

AI与计算