使用说明
项目简介
Ad-Veritas_mcp-server-trueRAG 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在为大型语言模型 (LLM) 应用提供上下文数据访问能力。该服务器专注于集成 GraphQL API,特别是 TrueRAG 系统的策略 (Policies) API,使得 LLM 能够通过标准化的 MCP 协议,便捷地查询和利用外部数据源的策略信息。
主要功能点
- 连接 GraphQL API: 通过配置的 GraphQL Endpoint 和 API Key,服务器可以连接到指定的 GraphQL 服务。
- 动态查询生成: 根据用户描述和 GraphQL Schema,服务器能够辅助生成合适的 GraphQL 查询语句。
- 执行 GraphQL 查询: 服务器可以执行生成的或用户提供的 GraphQL 查询,并返回 JSON 格式的结果。
- 示例工具: 包含一个简单的 BMI 计算工具,展示了 MCP 服务器扩展工具能力的灵活性。
安装步骤
-
克隆仓库
git clone https://github.com/MCP-Mirror/Ad-Veritas_mcp-server-trueRAG.git cd Ad-Veritas_mcp-server-trueRAG -
安装 uv (包管理工具) 确保已安装 'uv',如果未安装,请根据 README.md 中的指引安装。
-
配置环境变量 在项目根目录下创建 '.env' 文件,并填入 GraphQL API 的密钥和 Endpoint:
GRAPHQL_API_KEY = "{your_api_key}" GRAPHQL_ENDPOINT = "{your_graphql_endpoint}"请替换 '{your_api_key}' 和 '{your_graphql_endpoint}' 为您实际的 API 密钥和 Endpoint。
服务器配置
为了让 MCP 客户端(例如 Claude Desktop)连接到此服务器,您需要在客户端的配置文件中添加服务器配置信息。以下是针对 Claude Desktop 的配置示例,其他 MCP 客户端的配置方式类似,请参考各自客户端的文档。
在 Claude Desktop 的配置文件 ('~/Library/Application Support/Claude/claude_desktop_config.json') 中,添加如下 JSON 配置:
{ "shipping-policies": { // 服务器名称,可以自定义,用于在客户端中标识和调用 "command": "uv", // 启动服务器的命令,这里使用 uv 包管理器 "args": [ // 启动命令的参数列表 "--directory", // 指定工作目录参数 "{path_to_mcp_server}/Ad-Veritas_mcp-server-trueRAG", // MCP 服务器仓库的绝对路径,请替换为实际路径 "run", // uv 的子命令,表示运行 "fastmcp", // fastmcp 命令,用于运行 MCP 服务器 "run", // fastmcp 的子命令,表示运行 server "server.py" // 服务器主程序文件名 ] } }
请务必将 '{path_to_mcp_server}' 替换为 'Ad-Veritas_mcp-server-trueRAG' 仓库在您本地文件系统中的实际绝对路径。
基本使用方法
- 启动 MCP 服务器: 客户端(如 Claude Desktop)根据上述配置,会自动启动 'server.py'。
- 在 LLM 客户端中,您可以使用以下工具 (tools) 与服务器交互:
- 'connect_graphql()': 连接到配置的 GraphQL Endpoint 并获取 Schema。通常在服务器启动后自动或手动调用一次。
- 'generate_query(description: str)': 根据自然语言描述生成 GraphQL 查询语句。例如,您可以描述您想查询的策略信息,让服务器辅助生成查询语句。
- 'execute_graphql(query: str, variables: Optional[str] = None)': 执行 GraphQL 查询。您可以提供 'generate_query' 生成的查询语句,或者自行编写 GraphQL 查询语句。'variables' 参数用于传递查询变量,以 JSON 字符串形式传入。
- 'calculate_bmi(weight_kg: float, height_m: float)': BMI 计算工具示例。您可以在支持调用工具的 LLM 客户端中调用此工具进行 BMI 计算。
通过这些工具,LLM 应用可以利用 MCP 服务器提供的能力,访问和利用 GraphQL Policies API 中的数据,从而实现更强大的上下文感知和数据驱动的功能。
信息
分类
网页与API