LLM Orchestra MCP 服务器使用指南
项目简介
LLM Orchestra 是一个先进的多智能体AI通信系统,专门用于复杂分析任务的集成编排。它将多个AI代理与脚本执行功能相结合,为MCP客户端提供强大的智能分析服务。
主要功能
- 多智能体集成:协调具有灵活依赖关系图的专业AI代理
- 25个MCP工具:涵盖核心执行、提供商发现、集成管理等功能
- 资源管理:提供只读数据访问,包括集成配置、执行工件和性能指标
- 脚本代理集成:在LLM代理旁边执行自定义脚本,支持JSON I/O通信
- 执行监控:实时进度更新、依赖关系图可视化
- 成本优化:混合使用昂贵的云端模型和免费的本地模型
安装步骤
方法1: Homebrew (macOS推荐)
brew tap mrilikecoding/llm-orchestra brew install llm-orchestra
方法2: pip (所有平台)
pip install llm-orchestra
方法3: 开发安装
git clone https://github.com/mrilikecoding/llm-orc.git cd llm-orc uv sync --dev
MCP服务器配置
在项目根目录创建 '.mcp.json' 文件:
{ "mcpServers": { "llm-orc": { "command": "uv", "args": ["run", "llm-orc", "mcp", "serve"] }
配置说明:
- 'command': "uv" (使用uv包管理器)
- 'args': ["run", "llm-orc", "mcp", "serve"] } }
## 使用方法 1. **配置认证**:首次使用前需设置AI提供商认证 2. **启动服务器**:重启MCP客户端(如Claude Code),MCP工具将自动显示为 'mcp__llm-orc__*' 前缀 ## 核心工具示例 - 'mcp__llm-orc__get_help' - 获取完整文档 2. 'mcp__llm-orc__get_provider_status' - 检查可用模型 3. 'mcp__llm-orc__invoke' - 执行集成分析,自动保存执行结果 - 'mcp__llm-orc__list_ensembles' - 查看可用集成 3. 'mcp__llm-orc__validate_ensemble' - 检查配置有效性 4. 'mcp__llm-orc__library_search' - 搜索库集成 ## 典型工作流程 1. 检查可用模型和集成 2. 验证集成是否可以运行 3. 复制并适配集成配置 4. 执行分析任务 启动MCP服务器: ```bash llm-orc mcp serve
MCP服务器通过stdio传输协议与客户端通信,为LLM应用提供安全、可扩展的上下文服务框架。
信息
分类
开发者工具