项目简介
TrustGraph 是一个专为数据工程师设计的企业级 AI 代理平台。它提供全面的上下文工程解决方案,结合了知识图谱和向量数据库的强大功能,旨在帮助企业连接数据孤岛、自动化上下文构建,并部署可信赖的 AI 代理。其核心服务通过一个符合 Model Context Protocol (MCP) 标准的服务器暴露,支持 LLM 客户端以标准化方式访问数据、调用外部功能和使用 Prompt 模板。
主要功能点
- 上下文工程: 自动化构建知识图谱,将实体、主题及关系与向量嵌入关联,为 LLM 提供丰富准确的上下文。
- LLM 及代理管理: 连接主流 LLM 服务,支持私有模型部署,并提供智能代理执行复杂任务的能力。
- 数据管理: 管理文档、知识核心 (Knowledge Cores) 和处理流,实现数据摄取、转换和重用。
- Prompt 管理: 动态编辑和管理 LLM 的 Prompt 模板,包括系统 Prompt、数据转换 Prompt 和 RAG 上下文生成 Prompt。
- 工具集成: 注册并执行包括嵌入生成、文本补全、图RAG查询、代理执行、知识图谱查询等多种工具。
- JSON-RPC 通信: 通过标准 JSON-RPC 协议与 LLM 客户端进行通信,支持多种传输协议。
安装步骤
由于 TrustGraph 是一个复杂的平台,通常通过其官方文档提供的部署脚本和配置工具进行安装。以下是大致的安装流程:
- 环境准备: 确保您的系统已安装 Python 3.8+、Docker/Kubernetes (取决于部署方式) 及其他必要的依赖。
- 获取代码: 从 GitHub 仓库克隆 TrustGraph 项目。
- 安装 Python 依赖: 在项目根目录或相关子目录中运行 'pip install -e .' 或 'pip install -r requirements.txt' 来安装所有 Python 包。例如,针对 MCP 服务器部分,可能需要进入 'trustgraph-mcp' 目录安装其依赖。
- 配置平台: 访问官方提供的 Configuration Builder,构建您的部署配置,选择所需的 LLM、图数据库、向量数据库等组件,然后下载部署所需的 YAML 文件。
- 部署: 按照下载的 YAML 文件中的说明,使用 Docker Compose 或 Kubernetes 部署整个平台。
- 启动 MCP 服务器: 确保 MCP 服务器组件被正确启动。它通常会作为平台服务的一部分自动运行。
服务器配置
MCP 客户端需要配置以下信息以连接到 TrustGraph MCP 服务器。请注意,这里的 'command' 和 'args' 是 MCP 服务器的启动命令及其参数,而不是 LLM 客户端直接执行的命令。LLM 客户端会使用这些信息启动 MCP 服务器进程,并通过标准输入/输出或 WebSocket 进行通信。
MCP服务器名称: 'TrustGraph MCP Server' MCP服务器的启动命令: 'python -m trustgraph.mcp_server' MCP服务器的启动参数:
{ "host": "0.0.0.0", // MCP服务器监听的IP地址,默认0.0.0.0,允许从任何网络接口访问 "port": 8000, // MCP服务器监听的端口,默认8000 "websocket_url": "ws://api-gateway:8088/api/v1/socket" // TrustGraph内部API Gateway的WebSocket URL,MCP服务器将通过此URL与TrustGraph的核心服务进行通信 }
请根据您的实际部署环境调整 'host', 'port' 和 'websocket_url' 参数。例如,如果 TrustGraph 部署在 Docker 中,'websocket_url' 通常指向内部的 'api-gateway' 服务。
基本使用方法
一旦 TrustGraph 平台及 MCP 服务器启动并运行,LLM 客户端可以通过配置上述连接信息来与其交互。MCP 客户端可以发送 JSON-RPC 请求来:
- 获取可用工具: 查询 MCP 服务器支持的工具列表及其描述。
- 调用工具: 例如,发送 'embeddings' 请求来生成文本嵌入,或发送 'graph_rag' 请求来执行基于知识图谱的 RAG 查询。
- 管理 Prompt 模板: 获取、更新 Prompt 模板以定制 LLM 行为。
- 管理知识核心和文档: 上传文档,加载知识核心,以扩展 LLM 可用的上下文。 具体交互细节取决于您使用的 MCP 客户端工具。通常,LLM 客户端会通过调用这些工具来构建更复杂的 AI 代理应用。
信息
分类
AI与计算