使用说明
项目简介
ACI.dev (Agent Contextual Interface) 是一个开源的 AI Agent 工具调用基础设施,旨在简化 AI Agent 与外部工具和服务集成的复杂性。它提供了一个统一的平台来管理和安全地访问 600 多个预构建的工具集成,并通过 MCP 服务器或 Python SDK 为 LLM 应用提供上下文服务和功能调用能力。
主要功能点
- 统一 MCP 服务器: 提供标准化的 Model Context Protocol (MCP) 服务,简化 LLM 客户端与后端工具的交互。
- 丰富的工具集成: 内置 600+ 预构建工具集成,覆盖多种常用服务和应用,减少重复开发工作。
- 灵活的访问方式: 支持通过轻量级 Python SDK 直接进行函数调用,或通过统一的 MCP 服务器进行访问。
- 多租户认证与授权: 提供多租户身份验证、细粒度的权限控制和动态工具发现机制,保障安全性和可靠性。
- 框架和模型无关: 与任何 LLM 框架和 Agent 架构兼容,提供高度的灵活性和可移植性。
- 完全开源: 后端、开发者门户和集成均以 Apache 2.0 许可证开源。
安装步骤
- 环境准备: 确保已安装 Python 3.12+、Docker 和 Docker Compose。
- 克隆仓库: 从 GitHub 克隆 aci 仓库到本地:
git clone https://github.com/aipotheosis-labs/aci cd aci - 本地部署: 根据仓库中的 'backend/README.md' 和 'frontend/README.md' 文件,分别配置和启动后端服务器和前端开发者门户。
- 后端: 进入 'backend' 目录,按照 'README.md' 中的指引配置数据库连接、API 密钥等环境变量,并使用 Docker Compose 启动后端服务。
- 前端: 进入 'frontend' 目录,按照 'README.md' 中的指引安装依赖并启动前端开发者门户。
服务器配置
MCP 服务器的启动和配置主要通过后端服务完成。MCP 客户端连接 MCP 服务器时,需要服务器的启动命令和参数。ACI.dev 的 MCP 服务器配置信息(JSON 格式)示例如下:
{ "serverName": "aci-mcp-server", "command": "uvicorn", "args": [ "aci.server.main:app", "--host", "0.0.0.0", "--port", "8000", "--reload" ], "description": "ACI.dev MCP Server", "notes": "请根据实际部署环境调整端口和启动参数。生产环境建议移除 --reload 参数。" }
基本使用方法
- 配置 MCP 客户端: 在 LLM 应用或客户端中,配置 MCP 服务器的连接信息,包括服务器启动命令 (command) 及其参数 (args)。
- 通过 SDK 或直接调用 MCP 接口: 使用 ACI 提供的 Python SDK ('aci-sdk') 与 MCP 服务器进行交互,或者直接按照 MCP 协议规范,通过 JSON-RPC 调用服务器提供的资源、工具和 Prompt 模板等功能。
- 利用开发者门户管理: 通过 ACI.dev 开发者门户 (frontend) 管理项目、集成、认证和测试 Agent,更便捷地配置和使用 MCP 服务器的功能。
信息
分类
开发者工具