项目简介

ModelScope MCP 服务器提供对ModelScope平台(魔搭社区)AI资源和服务的直接访问能力。它作为一个Model Context Protocol (MCP) 服务器,允许LLM(大型语言模型)客户端通过标准化的JSON-RPC协议,以结构化的方式调用各种AI功能,例如AI内容生成、资源查询和获取上下文信息。这使得AI智能体和聊天机器人能够直接利用ModelScope丰富的生态系统。

主要功能点

  • AI图像生成: 支持文生图(Text-to-Image)和图生图(Image-to-Image)功能,利用ModelScope的AIGC模型生成图片。
  • 资源发现: 轻松搜索和发现ModelScope上的各种AI资源,包括:
    • 模型: 查找不同任务类别的AI模型。
    • 数据集: 搜索各种领域的数据集。
    • AI应用(创空间): 发现并了解ModelScope上的AI应用程序。
    • 研究论文: 检索相关的AI研究论文。
    • MCP服务器: 查找ModelScope平台上托管的其他MCP服务器。
  • 资源详情: 获取特定模型、数据集、创空间、论文或MCP服务器的全面详细信息。
  • 上下文信息: 访问当前操作环境和认证用户信息,例如您的ModelScope用户账户信息和服务器的运行时详情。

安装步骤

  1. 克隆仓库: 打开您的终端或命令行工具,执行以下命令克隆项目代码:
    git clone https://https://github.com/modelscope/modelscope-mcp-server.git
    cd modelscope-mcp-server
  2. 安装依赖: 项目使用 'uv' 包管理器进行依赖管理,您可以通过以下命令同步依赖:
    uv sync
    如果您没有安装 'uv',也可以使用 'pip' 进行安装:
    pip install -e .
  3. 获取API令牌: 访问 魔搭社区官网,登录您的账户。然后导航到 [个人中心] → [访问令牌] 页面,创建并获取您的ModelScope API令牌。此令牌是ModelScope MCP服务器访问ModelScope API的必要凭证。
  4. 配置API令牌: 将您的ModelScope API令牌设置为环境变量 'MODELSCOPE_API_TOKEN'。您可以选择以下两种方式之一:
    • 命令行设置(临时):
      export MODELSCOPE_API_TOKEN="您的API令牌"
    • 创建 '.env' 文件(推荐): 在项目根目录(即 'modelscope-mcp-server' 文件夹内)创建一个名为 '.env' 的文件,并添加以下内容:
      MODELSCOPE_API_TOKEN="您的API令牌"

服务器配置

该ModelScope MCP服务器旨在与兼容Model Context Protocol (MCP) 的LLM客户端配合使用。您需要将以下JSON配置添加到您的MCP客户端配置文件中(例如Cherry Studio、Claude Desktop、Cursor或VS Code的MCP配置文件)。

  • 使用本地安装的服务器(Stdio 传输):

    {
      "mcpServers": {
        "modelscope-mcp-server": {
          "command": "uvx",
          "args": ["modelscope-mcp-server"],
          "env": {
            "MODELSCOPE_API_TOKEN": "您的API令牌"
          }
        }
      }
    }

    参数说明:

    • 'modelscope-mcp-server': 这是您为该MCP服务器在客户端中定义的唯一名称。
    • 'command': 启动MCP服务器的命令。'uvx' 是 'uv' 包管理器提供的一个命令执行器,用于执行 Python 包。
    • 'args': 传递给 'command' 的参数,这里指定要运行的Python包名称 'modelscope-mcp-server'。
    • 'env': 环境变量配置。在此处设置 'MODELSCOPE_API_TOKEN' 确保服务器可以正确访问ModelScope API。
  • 使用预构建的Docker镜像:

    {
      "mcpServers": {
        "modelscope-mcp-server": {
          "command": "docker",
          "args": [
            "run", "--rm", "-i",
            "-e", "MODELSCOPE_API_TOKEN",
            "ghcr.io/modelscope/modelscope-mcp-server"
          ],
          "env": {
            "MODELSCOPE_API_TOKEN": "您的API令牌"
          }
        }
      }
    }

    参数说明:

    • 'command': 启动Docker容器的命令。
    • 'args': 传递给Docker命令的参数,用于运行 'ghcr.io/modelscope/modelscope-mcp-server' 镜像,并传递API令牌作为环境变量。
  • 使用HTTP/SSE 传输模式(需先手动启动服务器): 如果您希望通过HTTP或SSE协议连接MCP服务器(例如用于Web集成),首先需要手动启动服务器:

    uv run modelscope-mcp-server --transport http --port 8000
    # 或者
    uv run modelscope-mcp-server --transport sse --port 8000

    然后,在您的MCP客户端配置文件中添加以下配置:

    {
      "mcpServers": {
        "modelscope-mcp-server": {
          "url": "http://127.0.0.1:8000/mcp/"
        }
      }
    }

    参数说明:

    • 'url': 指定MCP服务器的URL地址。请确保端口与您启动服务器时指定的端口一致。

基本使用方法

配置完成后,您的LLM客户端即可通过对话或工具调用界面,利用ModelScope MCP服务器提供的强大功能。

例如,您可以尝试以下对话来触发服务器的功能:

  • 图像生成:
    • “请帮我生成一张描绘山水风景的图片。”
    • “将这张图片([提供图片URL])转换为卡通风格。”
  • 模型搜索:
    • “帮我搜索一下ModelScope上关于DeepSeek的文本生成模型。”
    • “查找支持推理的图像生成模型。”
  • 数据集查询:
    • “有没有关于金融领域的数据集?”
    • “ModelScope上下载量最多的数据集有哪些?”
  • 获取用户信息:
    • “我的ModelScope用户信息是什么?”
  • 搜索AI应用:
    • “ModelScope上有什么关于语音(TTS)的AI应用?”

LLM会根据您的对话内容,自动识别并调用ModelScope MCP服务器中相应的工具来完成您的请求。

信息

分类

AI与计算