项目简介
这是一个基于 Spring Boot 构建的后端服务,与一个前端服务共同构成一个 AI 研究项目。它被设计为通过 Docker Compose 轻松部署和运行。后端服务实现了 Model Context Protocol (MCP) 和 Agent-to-Agent (A2A) 协议,提供工具集成和上下文服务能力。
主要功能点
- AI代理后端: 作为AI研究助手应用的后端核心。
- 支持MCP协议: 支持 Model Context Protocol (MCP),允许作为MCP服务器向兼容的LLM客户端提供工具调用和上下文信息。
- 支持A2A协议: 支持 Agent-to-Agent (A2A) 协议,可与其他兼容的AI代理进行通信和协作。
- 集成多种LLM: 可配置并集成多种大型语言模型(如OpenAI, Qwen, Gemma, DeepSeek等)以执行任务。
- 灵活配置: 通过 'application.properties' 文件管理各项配置,包括API密钥、数据库设置以及外部MCP/A2A集成。
- Docker化部署: 提供 'Dockerfile' 和 'docker-compose.yml',简化构建、部署和运行过程。
安装步骤
-
克隆仓库: 由于项目依赖于其他Git仓库(通过 Dockerfile 克隆),你无需手动克隆那些仓库,只需克隆本项目即可。
-
配置 'application.properties':
- 在项目根目录创建 'application.properties' 文件,可以通过复制示例文件 'application.properties.example' 来创建。
- 编辑 'application.properties' 文件,填入你的实际配置信息,特别是 OpenAI API 密钥等。
-
构建并运行服务: 在项目根目录(即 'docker-compose.yml' 所在的目录)执行以下命令:
docker-compose up --build -d这会构建后端和前端的Docker镜像,并在后台启动服务。
服务器配置(供MCP客户端参考)
该后端服务作为MCP服务器运行。要让MCP客户端连接到此服务器,通常需要以下信息。请注意,本项目主要通过 Docker Compose 运行并监听网络端口,因此客户端连接方式侧重于网络地址而非启动命令。
- 服务器名称 (Server Name): 客户端可以为此集成指定一个友好的名称,例如 "AI 研究助手"。
- 连接方式/协议 (Connection Type/Protocol): 本项目通过 HTTP 暴露服务,MCP通信可能基于 WebSocket 或 SSE。客户端需要配置相应的网络协议类型。
- 网络地址 (Address): 服务器启动后,可通过 'http://localhost:8080/research-agent/api' 访问。MCP客户端需要配置正确的网络地址来建立连接。请注意,实际的 MCP 协议端点路径可能在该基础 URL 之下,具体路径取决于后端实现,不在 README 中详细说明。
- 启动命令 (Command) 及 参数 (Args): 对于此 Docker 化部署,服务器由 Docker 容器启动管理,客户端通常不需要配置启动命令,而是直接连接到其网络地址。如果服务器被设计为支持 Stdio 等方式直接运行,客户端才需要配置启动命令和参数来启动服务器进程。
基本使用方法
- 启动服务: 按照上述安装步骤的说明,使用 'docker-compose up --build -d' 命令启动后端和前端服务。
- 访问前端: 前端服务通常在 'http://localhost:3000' 可访问(内部映射到容器的 4173 端口)。
- 使用聊天界面: 通过浏览器访问前端地址,即可使用 AI 聊天界面与后端服务进行交互。前端会调用后端提供的 AI 能力和工具。
信息
分类
开发者工具