项目简介
ngff-zarr MCP 服务器是 'ngff-zarr' 项目的一部分,专门用于通过 Model Context Protocol (MCP) 将 AI 助手与 Open Microscopy Environment (OME) Next Generation File Format (NGFF) Zarr 格式的生物影像文件连接起来。它使 AI 能够访问、处理和理解这些复杂的科学影像数据,从而实现自动化分析和更智能的交互。
主要功能点
- 图像转换: 将多种图像格式(如 '.nrrd', '.tif', '.png' 等)转换为 OME-Zarr 格式,并支持多种下采样方法(如高斯平滑、二值收缩)和压缩选项(如 gzip, lz4, zstd, blosc)。
- 信息查询: 获取 OME-Zarr 存储的详细信息,包括版本、存储大小、文件数量、多尺度层级、图像维度、数据类型、分块信息以及压缩方式。
- 数据读取与验证: 读取 OME-Zarr 数据并可对 NGFF 元数据进行结构和内容验证,确保数据符合规范。
- 存储优化: 对现有 OME-Zarr 存储进行优化,例如重新配置压缩编码、压缩级别或分块大小。
- 能力声明: 提供服务器所支持的输入输出格式、可用的下采样方法和压缩编码等信息,以便 AI 助手了解其功能边界。
安装步骤
该服务器是一个 Python 包,您可以通过 pip 安装 'ngff-zarr',其中包含了 MCP 服务器作为其子模块。
- 确保您已安装 Python (推荐 3.9 或更高版本)。
- 安装 'ngff-zarr' 及其 MCP 依赖:
pip install "ngff-zarr[mcp]" - 如果需要使用特定的后端(例如 'TensorStore' 以获得更好的性能或处理大型数据集),可能需要安装额外的依赖:
pip install "ngff-zarr[mcp,tensorstore]"
服务器配置
MCP 客户端需要配置 MCP 服务器的启动命令及参数。以下是基于此仓库信息生成的 JSON 格式配置示例及参数注释:
{ "serverName": "ngff-zarr", "command": "python", "args": [ "-m", "ngff_zarr_mcp.server", "--transport", "stdio" // "--transport", "sse", // "--host", "localhost", // "--port", "8000" ], "description": "提供OME-NGFF Zarr格式生物影像文件的上下文服务,支持图像转换、信息查询和优化。" }
- 'serverName': MCP 服务器的名称,此处为 'ngff-zarr'。
- 'command': 启动 MCP 服务器的执行命令,此处为 'python'。
- 'args': 传递给执行命令的参数列表。
- '-m ngff_zarr_mcp.server': 以模块方式运行 'ngff_zarr_mcp.server' 文件,即启动 MCP 服务器。
- '--transport stdio': 指定使用标准输入输出 (Stdio) 作为 MCP 客户端和服务器之间的通信传输协议。这是默认且推荐用于 MCP 客户端的配置。
- '--transport sse': (可选) 指定使用 Server-Sent Events (SSE) 作为传输协议。如果选择此项,通常还需要指定 '--host' 和 '--port' 参数。
- '--host localhost': (可选) 当 '--transport' 为 'sse' 时,指定服务器监听的主机地址。默认为 'localhost'。
- '--port 8000': (可选) 当 '--transport' 为 'sse' 时,指定服务器监听的端口号。默认为 '8000'。
- 'description': 对该 MCP 服务器功能的简要描述,供 MCP 客户端用户参考。
基本使用方法
一旦 MCP 服务器根据上述配置启动并与客户端建立连接,AI 助手即可通过 JSON-RPC 协议调用其提供的工具和访问资源。 例如,AI 助手可以调用 'convert_images_to_ome_zarr' 工具,并传入相应的输入图像路径、输出路径和转换选项,将图像转换为 OME-Zarr 格式。或者,AI 助手可以读取 'ngff-zarr://supported-formats' 资源来了解服务器支持哪些文件类型和处理能力。具体的调用方式将由您的 MCP 客户端实现来决定。
信息
分类
AI与计算