项目简介

Hugging Face官方MCP服务器是一个基于Model Context Protocol构建的服务端应用,为LLM客户端提供标准化的Hugging Face生态访问能力。

主要功能

  • Hub API集成:支持模型搜索、数据集搜索、空间搜索等核心功能
  • Gradio工具调用:将数千个Gradio AI应用注册为可调用工具
  • 文档资源访问:提供Hugging Face文档的搜索和获取能力
  • 多传输协议支持:STDIO、SSE、Streamable HTTP等多种通信方式
  • Prompt模板:提供用户摘要、论文摘要等预设提示模板
  • 认证管理:支持OAuth认证和Hugging Face Token验证

安装步骤

Claude Desktop / claude.ai

  1. 访问Claude连接器设置
  2. 在应用商店中添加"Hugging Face"连接器

Claude Code

claude mcp add hf-mcp-server -t http https://huggingface.co/mcp?login
  1. 启动Claude并按照提示完成认证

Gemini CLI

gemini mcp add -t http huggingface https://huggingface.co/mcp?login

VSCode

Cursor

  • 点击专用链接直接安装
  • 或手动配置连接信息

服务器配置

MCP客户端需要配置以下信息来连接服务器:

  • 服务器类型:HTTP传输
  • 服务器地址:'https://huggingface.co/mcp'

基本使用方法

  1. 安装完成后,访问 https://huggingface.co/settings/mcp 配置工具和空间
  2. 在支持的客户端中调用Hugging Face相关工具:
    • 'hf_whoami' - 获取当前用户信息
    • 'hf_doc_search' - 搜索Hugging Face文档
  • 管理界面:本地部署时可访问 http://localhost:3000/ 进行工具管理
  1. 支持通过添加'?no_image_content=true'参数来禁用图像内容传输

运行方式

本地运行

npx @llmindset/hf-mcp-server       # STDIO模式
npx @llmindset/hf-mcp-server-http  # HTTP流模式
npx @llmindset/hf-mcp-server-json  # HTTP JSON模式

Docker运行

docker pull ghcr.io/evalstate/hf-mcp-server:latest
docker run --rm -p 3000:3000 ghcr.io/evalstate/hf-mcp-server:latest

支持的环境变量:

  • 'TRANSPORT':传输类型(stdio/sse/streamableHttp/streamableHttpJson)
  • 'DEFAULT_HF_TOKEN':开发环境使用的默认Token
  • 'HF_API_TIMEOUT':API请求超时时间

信息

分类

AI与计算