使用说明

项目简介

MCP-FMI是一个基于Model Context Protocol (MCP) 的服务器实现,专注于集成Functional Mock-up Interface (FMI) 标准的仿真模型。它使得LLM(大型语言模型)客户端能够通过标准协议访问、运行FMI模型,并处理仿真数据。

主要功能点

  • 通过聊天界面直接管理和运行您的FMI仿真模型。
  • 将FMI模型暴露为LLM代理可调用的工具,扩展LLM的能力范围。
  • 支持使用自然语言描述生成仿真所需的输入信号序列。
  • 提供在浏览器中可视化仿真结果的功能。

安装步骤

  1. Python 环境: 确保您的系统安装了 Python 3.11 或更高版本。
  2. 安装 uv (可选): 推荐使用 'uv' 作为包管理器,安装速度更快:
    pip install uv
  3. 安装 MCP-FMI: 使用 'uv' 或 'pip' 安装 MCP-FMI 包及其所有依赖:
    uv pip install mcp-fmi
    # 或者使用 pip:
    # pip install mcp-fmi

服务器配置

MCP 服务器需要被 MCP 客户端(如支持 MCP 的 LLM 桌面应用)发现和连接。客户端通常需要配置如何启动 MCP 服务器进程。

对于 MCP-FMI 服务器,您需要在 LLM 客户端的 MCP 服务器配置中添加一项,通常需要指定:

  • 服务器名称: 在客户端界面显示的名称,例如 "MCP-FMI Server"。
  • 启动命令 (command): 执行服务器进程的命令。如果使用 'uvx' 运行已安装的包,命令通常是 'uvx'。
  • 命令参数 (args): 启动命令所需的额外参数列表。对于 MCP-FMI,第一个参数是 'mcp-fmi',第二个参数是存放您的 '.fmu' 仿真模型文件的目录路径。

示例配置结构(请根据您的客户端实际配置格式填写):

  • '"command"': '"uvx"'
  • '"args"': '["mcp-fmi", "/您存放.fmu文件的目录路径/"]' (请将 '/您存放.fmu文件的目录路径/' 替换为您实际的文件夹路径,例如 'C:/Users/YourName/Documents/FMUs' 或 '/home/youruser/fmus')

配置完成后,客户端将能够通过执行此命令来启动并连接到 MCP-FMI 服务器。

基本使用方法

  1. 启动客户端: 启动您已配置好 MCP-FMI 服务器的 LLM 客户端。
  2. 连接服务器: 客户端会自动尝试连接并识别 MCP-FMI 服务器提供的工具。
  3. 自然语言交互: 在客户端的聊天界面中,像与普通 LLM 交互一样,使用自然语言向 LLM 提问或发出指令,引导 LLM 调用 MCP-FMI 提供的工具。
    • 询问可用的仿真模型:'What simulation models do you have available?'
    • 获取特定模型信息:'Please provide information about the model [model_name] and its signals.'
    • 生成特定输入信号:'Make a step change in the input [input_name] at 60s.'
    • 运行仿真:'Simulate [model_name] with the generated inputs.'
  4. 查看结果: LLM 将根据您的指令调用相应的 MCP-FMI 工具。仿真结果或相关信息将通过客户端展示,可视化结果会提供一个浏览器链接。

信息

分类

AI与计算