-
项目简介: 该项目是一个基于Model Context Protocol (MCP) 实现的Python后端服务器,利用FastAPI框架提供对Mistral AI平台智能体(Agent)的管理能力。它将Mistral API封装为MCP工具,允许任何MCP客户端(如Le Chat或MCP Inspector)通过标准化的JSON-RPC协议调用这些工具,实现智能体的创建、查询、删除等操作,为LLM应用提供丰富的上下文服务。
-
主要功能点:
- 创建Mistral智能体: 通过MCP工具接口,方便地在Mistral AI平台上创建新的智能体,包括定义名称、描述、指令、模型和外观等。
- 列出Mistral智能体: 获取并显示当前所有已配置的Mistral智能体列表,包含其名称和ID。
- 删除Mistral智能体: 根据智能体的唯一ID,安全地从Mistral AI平台删除指定的智能体。
- 搜索Mistral智能体: 根据智能体名称快速搜索并获取其详细信息。
- 标准化通信: 通过MCP协议提供JSON-RPC接口,支持stdio等传输方式,便于LLM客户端集成和交互。
-
安装步骤:
- 安装'uv'包管理器:
如果您的系统尚未安装'uv',请通过以下命令安装:
curl -LsSf https://astral.sh/uv/install.sh | sh export PATH="$HOME/.local/bin:$PATH" - 克隆仓库并进入项目目录:
git clone https://github.com/Uzbyr/mcp-server.git cd mcp-server - 安装项目依赖:
uv sync --locked - 配置Mistral API Key:
在项目根目录创建或编辑'.env'文件,并添加您的Mistral API密钥:
(请务必替换为您的实际密钥)MISTRAL_API_KEY="您的Mistral API密钥"
- 安装'uv'包管理器:
如果您的系统尚未安装'uv',请通过以下命令安装:
-
服务器配置 (供MCP客户端使用): 此MCP服务器通过'stdio'传输协议与MCP客户端通信。以下是为MCP客户端配置此服务器的JSON格式信息示例,其中包含启动命令和参数。
{ "name": "Mistral Agent Manager", "command": "uv", "args": [ "run", "python", "main.py" ], "transport": "stdio", "workingDirectory": "/path/to/your/mcp-server" }- 'name': 服务器的显示名称,用于客户端识别。
- 'command': 启动服务器的可执行程序。这里是'uv',它将管理Python环境并运行脚本。
- 'args': 传递给'command'的参数列表。'run python main.py' 指示'uv'运行'main.py'脚本。
- 'transport': 服务器与客户端之间建立连接的方式,此处为'stdio' (标准输入输出)。
- 'workingDirectory': 重要! 指定MCP服务器启动时的工作目录,应设置为您克隆并安装依赖的'mcp-server'项目根目录的绝对路径。请根据您的实际情况修改此项。
-
基本使用方法: 配置完成后,通过您的MCP客户端(如Le Chat或MCP Inspector)连接到此服务器。一旦连接成功,您可以通过客户端提供的界面或直接在LLM中以自然语言调用服务器暴露的工具。例如:
- 请求LLM“创建一个名为'MyAssistant'的智能体,描述是'一个帮助我完成任务的助手'。”
- 请求LLM“列出所有现有的Mistral智能体。”
- 请求LLM“删除ID为'agent_abc123'的智能体。”
- 请求LLM“搜索名称为'MyAssistant'的智能体。” 服务器将处理这些请求,并通过Mistral API执行相应操作,并将结果返回给客户端。
信息
分类
AI与计算