使用说明

项目简介

Super Agent Party 是一个旨在将大型语言模型 (LLM) 转化为功能强大的智能代理的开源项目。它允许大型模型访问知识库、连接互联网、调用 MCP 服务,并具备深度思考和深入研究的能力。该项目支持多种调用方式,包括 OpenAI API 兼容的接口以及 Web 和桌面应用程序,为 LLM 应用提供了一个全面且可定制的上下文服务框架。

主要功能点

  • 知识库: 使大型模型能够基于知识库中的信息进行回答,支持多知识库查询。
  • 互联网连接: 允许大型模型主动搜索互联网信息,支持多种搜索引擎。
  • MCP 服务: 支持大型模型主动调用 MCP 服务,实现工具扩展和功能集成。
  • 深度思考: 将推理模型的推理能力迁移到工具调用模型或多模态模型中,增强模型的分析和规划能力。
  • 深入研究: 将用户问题转化为可执行的任务,通过逐步分析、推理和调用工具完成复杂任务。
  • 多调用方式: 支持通过 OpenAI API 兼容接口、Web 界面和桌面应用程序进行调用。

安装步骤

1. Docker 部署 (推荐)

  • 拉取 Docker 镜像并运行:

    docker pull ailm32442/super-agent-party:latest
    docker run -d -p 3456:3456 ailm32442/super-agent-party:latest

2. 源码部署

  • 克隆仓库到本地:

    git clone https://github.com/heshengtao/super-agent-party.git
    cd super-agent-party
  • 安装依赖:

    • Windows 环境:运行 'install.bat' 脚本。

    • macOS/Linux 环境:运行 'install.sh' 脚本。

    • 手动安装依赖:

      python -m venv super
      super\Scripts\activate  # Windows
      # source super/bin/activate # MacOS/Linux
      pip install -r requirements.txt
      npm install

3. 访问应用

  • 安装完成后,通过浏览器访问 'http://localhost:3456/' 即可使用。

服务器配置

MCP 服务器配置在 “MCP Services” 界面中进行设置。MCP 客户端需要配置 MCP 服务器的启动命令 (command) 及其参数 (args),以便与 MCP 服务器建立连接。

以下是一个 MCP 服务器配置示例 (JSON 格式),用于连接到一个名为 "my-mcp-server" 的 MCP 服务:

{
  "my-mcp-server": {
    "serverName": "my-mcp-server",  // MCP 服务器名称,用户自定义
    "command": "python",           // MCP 服务器启动命令
    "args": ["mcp_server.py", "--port", "8000"], // 启动命令参数,例如指定端口
    "protocol": "stdio",          // 通信协议,例如 stdio, sse, websocket
    "description": "My local MCP server", // 服务器描述信息,用户自定义
    "enabled": true               // 是否启用该 MCP 服务器
  }
}

基本使用方法

  1. 系统设置: 在左侧边栏的 "System Settings" 中,可以设置语言、主题等系统选项,并切换 Web 模式。
  2. 工具配置: 在 "Tools" 界面,可以配置各种实用工具,如当前时间、深度研究、伪推理等。
  3. 模型服务配置: 在 "Model Services" 界面,配置 OpenAI、DeepSeek 等云服务提供商的 API 密钥,并选择偏好的模型。
  4. 智能体配置: 在 "Agents" 界面,可以创建和配置智能代理,包括系统提示词、模型服务、知识库、互联网访问、MCP 服务和工具等。
  5. 模型精细配置: 在 "Primary Model" 和 "Inference Model" 界面,可以更精细地配置模型,例如选择具有工具调用能力的主模型和具有推理能力的推理模型。
  6. MCP 服务配置: 在 "MCP Services" 界面,配置要连接的 MCP 服务器,支持标准输入/输出和 SSE 两种调用方式,并配置服务器地址、端口等参数。
  7. 互联网访问配置: 在 "Internet Access Features" 界面,配置互联网搜索引擎和网页转 Markdown 工具。
  8. 知识库配置: 在 "Knowledge Base" 界面,配置知识库,并确保已配置词嵌入模型。
  9. 调用方式: 在 "Invocation Methods" 界面,可以使用 OpenAI 格式的 API 调用智能代理。

免责声明: 本项目提供的所有内容仅供参考,不作任何明确或隐含的保证。项目贡献者不对项目的完整性、准确性、可靠性或适用性承担任何责任。

信息

分类

AI与计算