• 项目简介: 该项目是一个基于Model Context Protocol (MCP) 实现的Python后端服务器,利用FastAPI框架提供对Mistral AI平台智能体(Agent)的管理能力。它将Mistral API封装为MCP工具,允许任何MCP客户端(如Le Chat或MCP Inspector)通过标准化的JSON-RPC协议调用这些工具,实现智能体的创建、查询、删除等操作,为LLM应用提供丰富的上下文服务。

  • 主要功能点:

    • 创建Mistral智能体: 通过MCP工具接口,方便地在Mistral AI平台上创建新的智能体,包括定义名称、描述、指令、模型和外观等。
    • 列出Mistral智能体: 获取并显示当前所有已配置的Mistral智能体列表,包含其名称和ID。
    • 删除Mistral智能体: 根据智能体的唯一ID,安全地从Mistral AI平台删除指定的智能体。
    • 搜索Mistral智能体: 根据智能体名称快速搜索并获取其详细信息。
    • 标准化通信: 通过MCP协议提供JSON-RPC接口,支持stdio等传输方式,便于LLM客户端集成和交互。
  • 安装步骤:

    1. 安装'uv'包管理器: 如果您的系统尚未安装'uv',请通过以下命令安装:
      curl -LsSf https://astral.sh/uv/install.sh | sh
      export PATH="$HOME/.local/bin:$PATH"
    2. 克隆仓库并进入项目目录:
      git clone https://github.com/Uzbyr/mcp-server.git
      cd mcp-server
    3. 安装项目依赖:
      uv sync --locked
    4. 配置Mistral API Key: 在项目根目录创建或编辑'.env'文件,并添加您的Mistral API密钥:
      MISTRAL_API_KEY="您的Mistral API密钥"
      (请务必替换为您的实际密钥)
  • 服务器配置 (供MCP客户端使用): 此MCP服务器通过'stdio'传输协议与MCP客户端通信。以下是为MCP客户端配置此服务器的JSON格式信息示例,其中包含启动命令和参数。

    {
      "name": "Mistral Agent Manager",
      "command": "uv",
      "args": [
        "run",
        "python",
        "main.py"
      ],
      "transport": "stdio",
      "workingDirectory": "/path/to/your/mcp-server"
    }
    • 'name': 服务器的显示名称,用于客户端识别。
    • 'command': 启动服务器的可执行程序。这里是'uv',它将管理Python环境并运行脚本。
    • 'args': 传递给'command'的参数列表。'run python main.py' 指示'uv'运行'main.py'脚本。
    • 'transport': 服务器与客户端之间建立连接的方式,此处为'stdio' (标准输入输出)。
    • 'workingDirectory': 重要! 指定MCP服务器启动时的工作目录,应设置为您克隆并安装依赖的'mcp-server'项目根目录的绝对路径。请根据您的实际情况修改此项。
  • 基本使用方法: 配置完成后,通过您的MCP客户端(如Le Chat或MCP Inspector)连接到此服务器。一旦连接成功,您可以通过客户端提供的界面或直接在LLM中以自然语言调用服务器暴露的工具。例如:

    • 请求LLM“创建一个名为'MyAssistant'的智能体,描述是'一个帮助我完成任务的助手'。”
    • 请求LLM“列出所有现有的Mistral智能体。”
    • 请求LLM“删除ID为'agent_abc123'的智能体。”
    • 请求LLM“搜索名称为'MyAssistant'的智能体。” 服务器将处理这些请求,并通过Mistral API执行相应操作,并将结果返回给客户端。

信息

分类

AI与计算