项目简介
OpenNeuro MCP服务器是一个专门为大型语言模型(LLM)客户端设计的后端服务。它遵循Model Context Protocol (MCP) 规范,允许LLM客户端以标准化的方式查询和访问OpenNeuro神经影像数据集。OpenNeuro是一个免费且开放的平台,用于共享MRI、MEG、EEG等多种神经影像数据。该服务器的核心功能是提供一个GraphQL查询工具,使LLM能够智能地探索和检索OpenNeuro上的数据集信息、快照详情和文件列表。
主要功能点
- GraphQL查询工具: 允许LLM直接向OpenNeuro API发送GraphQL查询,以获取神经影像数据集的具体信息。
- API模式自省: LLM可以查询OpenNeuro GraphQL API的结构(Schema),从而了解所有可用的数据字段和操作,帮助LLM更准确地构建查询。
- 数据集访问: 提供对所有公共OpenNeuro数据集的访问能力,无需用户提供API密钥或进行身份验证。
- 上下文服务: 作为LLM客户端的智能上下文提供者,帮助LLM理解和有效地利用OpenNeuro中的海量神经影像数据。
安装步骤
- 克隆仓库: 在您的终端中运行以下命令,将项目代码下载到本地计算机:
git clone https://github.com/quentincody/open-neuro-mcp-server.git cd open-neuro-mcp-server - 安装依赖: 运行以下命令安装所有必需的项目依赖项:
npm install - 启动开发服务器: 运行以下命令启动本地开发服务器:
服务器将在 'http://localhost:8787/sse' 地址提供服务。npm run dev
服务器配置
要将此MCP服务器连接到兼容的MCP客户端(例如Anthropic的Claude Desktop),您需要将其配置添加到客户端的设置中。请将以下JSON配置添加到MCP客户端的开发者设置(通常是 'Settings > Developer > Edit Config')中的 'mcpServers' 部分:
{ "mcpServers": { "openneuro": { "command": "npx", "args": [ "mcp-remote", "https://open-neuro-mcp-server.quentincody.workers.dev/sse" ] } } }
- 'openneuro': 这是您为这个MCP服务器实例自定义的名称,客户端将使用这个名称来识别和引用它。
- 'command': 客户端用来启动或连接到MCP服务器的命令。'npx mcp-remote' 是一个常用的工具,用于代理与远程MCP服务器的连接。
- 'args': 传递给 'command' 的参数。这里是已部署的OpenNeuro MCP服务器的地址,它通过Server-Sent Events (SSE) 协议提供服务。
如果您想连接到本地运行的开发服务器,请将 'args' 中的URL替换为 'http://localhost:8787/sse'。
基本使用方法
完成服务器配置后,请重启您的MCP客户端。客户端将自动检测并启用OpenNeuro工具。您现在可以在LLM客户端中通过调用名为 'openneuro_graphql_query' 的工具来与OpenNeuro服务器互动。
示例:
您可以要求LLM执行以下操作来获取特定数据集的基本信息:
'请使用openneuro_graphql_query工具,查询ID为"ds000224"的数据集的ID、名称、描述和创建日期。'
LLM会根据您的请求调用 'openneuro_graphql_query' 工具,并传递相应的GraphQL查询字符串,然后将OpenNeuro API返回的数据展示给您。
信息
分类
网页与API