项目简介
KumoRFM MCP 服务器是一个基于 Model Context Protocol (MCP) 构建的后端服务,旨在将 KumoRFM(关系基础模型)的强大预测能力集成到各种AI代理和LLM应用中。KumoRFM 是一个预训练的关系基础模型,能够通过将多表关系数据解释为异构图,生成无需训练的预测。本服务器通过标准化接口(JSON-RPC)向LLM客户端提供 KumoRFM 的核心功能,包括图数据管理、预测查询(PQL)执行以及结果解释,赋能AI助手处理复杂的关系数据预测任务。
主要功能点
- 数据图管理: 允许用户从CSV或Parquet文件构建、管理和可视化关系数据图。可以检查图的元数据(如表结构、列类型、主键、时间列等)、更新图的结构、添加或移除表和链接,并生成Mermaid图表进行可视化。
- 数据查询与检索: 能够查找目录中的表格文件,预览其内容,并根据主键检索已注册表中特定行的数据。
- 关系模型预测: 核心功能是执行基于“预测查询语言 (PQL)”的预测查询。支持多种预测任务,如缺失值填充、时间序列预测等,且无需额外的模型训练。
- 性能评估: 能够评估预测查询的性能,通过与已知真实标签进行比较,返回准确性、精确度、召回率、F1分数、AUC等多种指标。
- 预测解释: 提供对模型预测的解释,包括全局的列级分析和局部的单元格级归因视图,帮助用户理解预测背后的原因。
- 会话与认证: 管理KumoRFM会话,并支持API Key或OAuth2流程进行认证。
安装步骤
- Python环境准备: 确保您的系统安装了 Python 3.10 或更高版本。
- 安装服务器: 打开终端或命令行,运行以下命令安装 KumoRFM MCP 服务器:
pip install kumo-rfm-mcp - 安装MCP Bundle (可选,适用于Claude Desktop等客户端):
- 从 这里 下载 '.dxt' 文件。
- 双击下载的文件即可安装。MCP Bundle 会自动创建独立的Python虚拟环境并安装所需依赖,支持Linux, macOS和Windows。
服务器配置
MCP 服务器需要通过 MCP 客户端进行连接。以下是适用于大多数 MCP 客户端(如 Claude Desktop)的 JSON 配置示例,您需要将其添加到您的 MCP 客户端配置文件中:
{ "mcpServers": { "kumo-rfm": { "command": "python", "args": ["-m", "kumo_rfm_mcp.server"], "env": { "KUMO_API_KEY": "您的KumoRFM_API_密钥" } } } }
- 'mcpServers':定义了MCP服务器列表。
- 'kumo-rfm':这是一个自定义的服务器名称,客户端将使用此名称引用该服务器。
- 'command':启动服务器的命令,这里是'python'。
- 'args':传递给'command'的参数,'-m kumo_rfm_mcp.server' 会运行 'kumo_rfm_mcp' 包中的服务器模块。
- 'env':服务器启动时所需的环境变量。
- 'KUMO_API_KEY':您的 KumoRFM API 密钥,用于认证。您可以在 KumoRFM官网 免费获取。
基本使用方法
配置完成后,您的MCP客户端(如Claude Desktop、CrewAI、LangChain等)就可以通过定义的名称 'kumo-rfm' 来发现并与该服务器进行通信。客户端可以:
- 认证: LLM可以调用'authenticate'工具来验证KumoRFM会话。
- 管理图: LLM可以使用'find_table_files'查找数据文件,'inspect_table_files'预览数据,然后使用'update_graph_metadata'来定义和修改数据图的结构(添加表、链接等)。
- 物化图: 在图结构定义完成后,LLM需要调用'materialize_graph'来构建实际可用于推理的图数据。
- 执行预测/评估/解释: 一旦图被物化,LLM就可以使用'predict'工具执行PQL查询来获取预测结果,使用'evaluate'评估模型性能,或使用'explain'获取预测解释。
- 查阅文档: LLM可以通过'get_docs'工具获取KumoRFM的使用文档,例如查询语法 ('kumo://docs/predictive-query') 或图设置 ('kumo://docs/graph-setup')。
信息
分类
AI与计算