项目简介

NeuroML AI MCP 服务器是 'neuroml-ai' 项目的核心后端服务之一,专门用于向大语言模型(LLM)客户端提供NeuroML相关的上下文信息和工具功能。它采用Model Context Protocol (MCP) 规范,允许LLM通过JSON-RPC协议调用预定义的工具,例如生成新的NeuroML模型代码。这使得AI助手能够理解和执行与神经形态建模相关的复杂任务。

主要功能点

  • 工具托管与执行: 服务器托管一系列专门用于生成NeuroML代码或处理NeuroML相关任务的工具(例如 'create_new_NeuroML_model_tool')。当LLM客户端请求时,它能够执行这些工具并返回结果。
  • 标准化通信: 服务器通过JSON-RPC协议与客户端通信,遵循MCP规范接收请求(如工具调用)并发送相应的响应。
  • 上下文服务: 作为AI助手的关键组成部分,它为LLM提供了一个结构化且可调用的功能层,增强了LLM在特定领域(NeuroML)的专业能力。
  • 模块化与可扩展: 使用'fastmcp'库构建,支持方便地注册新的Python函数作为可被LLM调用的工具,易于扩展功能。

安装步骤

  1. 克隆仓库: 首先,使用Git命令行工具将 'neuroml-ai' 项目仓库克隆到您的本地计算机上。

  2. 安装Python环境依赖: 进入克隆下来的项目目录,强烈建议您创建一个Python虚拟环境来管理项目依赖,以避免与系统其他Python项目的冲突。然后,根据项目'README.md'文件指示,使用'pip'工具安装所有必需的Python库,这通常包括'fastmcp'、'langchain'相关的核心库以及'pydantic'等。

  3. 配置大语言模型和嵌入模型环境:

    • Ollama (本地部署): 如果您计划在本地运行大语言模型(LLM)和嵌入模型,请访问Ollama官方网站('https://ollama.com/download')下载并安装Ollama服务。安装完成后,根据项目默认或您的配置,使用Ollama命令拉取所需的模型(例如用于聊天的'qwen3:1.7b'和用于嵌入的'bge-m3')。
    • HuggingFace (云服务): 如果选择使用HuggingFace上的模型,您需要确保已登录HuggingFace,并且在环境变量中设置了'HF_TOKEN_NML_AI'或'HF_TOKEN'等API访问令牌。

服务器配置

MCP客户端需要以下JSON格式的信息来连接和使用此服务器:

{
  "server_name": "nml_codegen",
  "command": "python",
  "args": ["-m", "neuroml_ai.mcp.server.codegen"],
  "description": "NeuroML AI助手后端,提供NeuroML代码生成工具。通过FastMCP实现。"
}

参数注释:

  • 'server_name': 这是MCP服务器的唯一标识符,此处为 "nml_codegen",用于MCP客户端识别和连接。
  • 'command': 启动MCP服务器的主程序命令。在此配置中,它指定为 'python' 解释器。
  • 'args': 传递给 'command' 的参数列表。'["-m", "neuroml_ai.mcp.server.codegen"]' 指示Python以模块形式运行 'neuroml_ai.mcp.server.codegen' 文件,从而启动MCP服务器。
  • 'description': 服务器的简要说明,帮助用户了解其功能。

基本使用方法

  1. 启动MCP服务器: 在项目的根目录(即 'neuroml-ai' 目录),打开终端并运行以下命令来启动MCP服务器: 'python -m neuroml_ai.mcp.server.codegen' 服务器启动后,默认会在 'http://127.0.0.1:8542/mcp' 地址监听MCP客户端的请求。

  2. 启动FastAPI后端(可选但推荐): MCP服务器通常与AI助手的FastAPI后端协同工作。为了确保完整功能,请在另一个终端窗口中启动FastAPI服务: 'uvicorn neuroml_ai.api.main:app --host 0.0.0.0 --port 8005'

  3. 通过AI助手前端或MCP客户端交互: 当MCP服务器和FastAPI后端都成功运行后,您可以:

    • 启动项目提供的Streamlit前端('streamlit run neuroml_ai/streamlit_ui.py')与NeuroML AI助手进行交互。
    • 直接使用任何兼容MCP的客户端,连接到 'http://127.0.0.1:8542/mcp' 地址,以编程方式调用服务器上注册的工具。

信息

分类

AI与计算