项目简介

OpenNeuro MCP服务器是一个专门为大型语言模型(LLM)客户端设计的后端服务。它遵循Model Context Protocol (MCP) 规范,允许LLM客户端以标准化的方式查询和访问OpenNeuro神经影像数据集。OpenNeuro是一个免费且开放的平台,用于共享MRI、MEG、EEG等多种神经影像数据。该服务器的核心功能是提供一个GraphQL查询工具,使LLM能够智能地探索和检索OpenNeuro上的数据集信息、快照详情和文件列表。

主要功能点

  • GraphQL查询工具: 允许LLM直接向OpenNeuro API发送GraphQL查询,以获取神经影像数据集的具体信息。
  • API模式自省: LLM可以查询OpenNeuro GraphQL API的结构(Schema),从而了解所有可用的数据字段和操作,帮助LLM更准确地构建查询。
  • 数据集访问: 提供对所有公共OpenNeuro数据集的访问能力,无需用户提供API密钥或进行身份验证。
  • 上下文服务: 作为LLM客户端的智能上下文提供者,帮助LLM理解和有效地利用OpenNeuro中的海量神经影像数据。

安装步骤

  1. 克隆仓库: 在您的终端中运行以下命令,将项目代码下载到本地计算机:
    git clone https://github.com/quentincody/open-neuro-mcp-server.git
    cd open-neuro-mcp-server
  2. 安装依赖: 运行以下命令安装所有必需的项目依赖项:
    npm install
  3. 启动开发服务器: 运行以下命令启动本地开发服务器:
    npm run dev
    服务器将在 'http://localhost:8787/sse' 地址提供服务。

服务器配置

要将此MCP服务器连接到兼容的MCP客户端(例如Anthropic的Claude Desktop),您需要将其配置添加到客户端的设置中。请将以下JSON配置添加到MCP客户端的开发者设置(通常是 'Settings > Developer > Edit Config')中的 'mcpServers' 部分:

{
  "mcpServers": {
    "openneuro": {
      "command": "npx",
      "args": [
        "mcp-remote",
        "https://open-neuro-mcp-server.quentincody.workers.dev/sse"
      ]
    }
  }
}
  • 'openneuro': 这是您为这个MCP服务器实例自定义的名称,客户端将使用这个名称来识别和引用它。
  • 'command': 客户端用来启动或连接到MCP服务器的命令。'npx mcp-remote' 是一个常用的工具,用于代理与远程MCP服务器的连接。
  • 'args': 传递给 'command' 的参数。这里是已部署的OpenNeuro MCP服务器的地址,它通过Server-Sent Events (SSE) 协议提供服务。

如果您想连接到本地运行的开发服务器,请将 'args' 中的URL替换为 'http://localhost:8787/sse'。

基本使用方法

完成服务器配置后,请重启您的MCP客户端。客户端将自动检测并启用OpenNeuro工具。您现在可以在LLM客户端中通过调用名为 'openneuro_graphql_query' 的工具来与OpenNeuro服务器互动。

示例:

您可以要求LLM执行以下操作来获取特定数据集的基本信息:

'请使用openneuro_graphql_query工具,查询ID为"ds000224"的数据集的ID、名称、描述和创建日期。'

LLM会根据您的请求调用 'openneuro_graphql_query' 工具,并传递相应的GraphQL查询字符串,然后将OpenNeuro API返回的数据展示给您。

信息

分类

网页与API