LLM Orchestra MCP 服务器使用指南

项目简介

LLM Orchestra 是一个先进的多智能体AI通信系统,专门用于复杂分析任务的集成编排。它将多个AI代理与脚本执行功能相结合,为MCP客户端提供强大的智能分析服务。

主要功能

  • 多智能体集成:协调具有灵活依赖关系图的专业AI代理
  • 25个MCP工具:涵盖核心执行、提供商发现、集成管理等功能
  • 资源管理:提供只读数据访问,包括集成配置、执行工件和性能指标
  • 脚本代理集成:在LLM代理旁边执行自定义脚本,支持JSON I/O通信
  • 执行监控:实时进度更新、依赖关系图可视化
  • 成本优化:混合使用昂贵的云端模型和免费的本地模型

安装步骤

方法1: Homebrew (macOS推荐)

brew tap mrilikecoding/llm-orchestra
brew install llm-orchestra

方法2: pip (所有平台)

pip install llm-orchestra

方法3: 开发安装

git clone https://github.com/mrilikecoding/llm-orc.git
cd llm-orc
uv sync --dev

MCP服务器配置

在项目根目录创建 '.mcp.json' 文件:

{
  "mcpServers": {
    "llm-orc": {
      "command": "uv",
      "args": ["run", "llm-orc", "mcp", "serve"]
}

配置说明

  • 'command': "uv" (使用uv包管理器)
  • 'args': ["run", "llm-orc", "mcp", "serve"] } }

## 使用方法

1. **配置认证**:首次使用前需设置AI提供商认证
2. **启动服务器**:重启MCP客户端(如Claude Code),MCP工具将自动显示为 'mcp__llm-orc__*' 前缀

## 核心工具示例
- 'mcp__llm-orc__get_help' - 获取完整文档
2. 'mcp__llm-orc__get_provider_status' - 检查可用模型
3. 'mcp__llm-orc__invoke' - 执行集成分析,自动保存执行结果
- 'mcp__llm-orc__list_ensembles' - 查看可用集成
3. 'mcp__llm-orc__validate_ensemble' - 检查配置有效性
4. 'mcp__llm-orc__library_search' - 搜索库集成

## 典型工作流程
1. 检查可用模型和集成
2. 验证集成是否可以运行
3. 复制并适配集成配置
4. 执行分析任务

启动MCP服务器:
```bash
llm-orc mcp serve

MCP服务器通过stdio传输协议与客户端通信,为LLM应用提供安全、可扩展的上下文服务框架。

信息

分类

开发者工具