项目简介

'Rossum MCP Server' 是一个基于 Model Context Protocol (MCP) 实现的服务器,旨在将 Rossum 的智能文档处理能力无缝集成到大型语言模型 (LLM) 驱动的应用中。它通过标准化的 JSON-RPC 接口,允许 LLM 客户端调用 Rossum API,执行文档上传、数据提取、队列配置、模式管理等复杂操作,从而实现高效的文档处理自动化。

主要功能点

  • 文档上传与批注管理:
    • 上传文档: 将本地文档批量上传至 Rossum 指定队列,用于AI自动提取。
    • 获取批注: 检索特定文档的批注数据,包括提取内容、状态等。
    • 列出批注: 查询指定队列中符合特定状态(如“待审核”、“已确认”)的批注列表。
    • 批注工作流: 支持启动批注以进行审核、批量更新批注中的字段值,以及确认批注状态。
  • Rossum 资源配置:
    • 队列管理: 获取现有队列的详细信息、创建新队列并配置其自动化规则、更新队列设置(如自动化阈值、名称)。
    • 模式管理: 获取数据提取模式(Schema)详情、创建自定义模式,并更新模式中的字段设置(如字段级置信度阈值)。
    • 引擎管理: 获取队列关联的AI引擎信息、创建新的AI引擎(如提取器或分类器),并配置引擎的训练队列或学习设置。
    • 引擎字段: 为引擎创建和管理与其关联的字段,定义AI模型需要提取的具体数据点,并链接到相应的模式。

安装步骤

在开始之前,请确保您的系统已安装 Python 3.10+,并拥有有效的 Rossum 账号及 API 凭证。

  1. 克隆仓库: 打开终端,运行以下命令克隆项目仓库:
    git clone https://github.com/stancld/rossum-mcp.git
    cd rossum-mcp
  2. 安装依赖: 安装服务器及其配套的 AI 代理所需的所有 Python 包:
    pip install -e "rossum_mcp[all]" -e "rossum_agent[all]"
  3. 配置环境变量: 设置访问 Rossum API 所需的环境变量。请将 '您的Rossum API令牌' 替换为您的实际 API 令牌。
    export ROSSUM_API_TOKEN="您的Rossum API令牌"
    export ROSSUM_API_BASE_URL="https://api.elis.rossum.ai/v1"
    如果您计划使用 'rossum_agent' 客户端并通过非 Bedrock 模型调用 LLM,还需要配置 LLM 相关的环境变量,例如:
    export LLM_MODEL_ID="openai/Qwen/Qwen3-Next-80B-A3B-Instruct-FP8"
    export LLM_API_BASE_URL="您的LLM API基础URL"
    export LLM_API_KEY="您的LLM API密钥"

服务器配置 (供MCP客户端使用)

此 MCP 服务器通过标准的 JSON-RPC 协议与客户端通信。MCP 客户端(例如 Claude Desktop)需要知道如何启动此服务器才能与其通信。以下是客户端可能需要配置的信息,它通常以 JSON 格式提供,用于指定服务器的启动方式和必要的环境变量。

  • 服务器名称 (server name): 您为服务器自定义的唯一标识符。
  • 启动命令 (command): 启动服务器所使用的程序,通常是 'python'。
  • 命令参数 (args): 传递给启动命令的参数,这里是 'rossum_mcp/server.py' 脚本的完整路径。您需要将示例中的 '/path/to/rossum-mcp/rossum_mcp/server.py' 替换为您本地仓库中该文件的实际绝对路径。
  • 环境变量 (env): 运行服务器所需的额外信息,包括:
    • 'ROSSUM_API_TOKEN': 您的Rossum API身份验证令牌。
    • 'ROSSUM_API_BASE_URL': Rossum API的基础URL,通常是 'https://api.elis.rossum.ai/v1'。

客户端会使用这些信息来在后台启动并连接到您的 Rossum MCP 服务器,使其能够调用服务器提供的 Rossum 相关功能。

基本使用方法

  1. 独立运行 MCP 服务器: 您可以在终端中直接运行 Rossum MCP 服务器:

    rossum-mcp

    服务器启动后,它将等待 MCP 客户端的连接。

  2. 通过 MCP 客户端连接: 任何兼容 MCP 协议的 LLM 客户端(如 Claude Desktop)都可以通过上述配置信息连接到此服务器。一旦连接成功,LLM 即可通过对话式指令,利用服务器提供的工具与 Rossum 平台进行交互。例如,您可以直接向 LLM 下达“上传所有发票到队列 3901094”或“为队列 3904204 创建一个新的模式并设置自动化阈值”之类的指令。

  3. 使用配套 AI 代理: 此仓库还提供了一个专门的 AI 代理客户端 'rossum_agent',它集成了文件系统工具、绘图工具和对 Rossum MCP 服务器的调用。您可以通过以下方式启动它:

    • 命令行界面:
      rossum-agent
    • Streamlit Web UI:
      streamlit run rossum_agent/app.py

    这个代理客户端允许用户通过更高级的指令,执行更复杂的 Rossum 工作流,甚至包括数据可视化。

信息

分类

AI与计算