项目简介
Hugging Face官方MCP服务器是一个基于Model Context Protocol构建的服务端应用,为LLM客户端提供标准化的Hugging Face生态访问能力。
主要功能
- Hub API集成:支持模型搜索、数据集搜索、空间搜索等核心功能
- Gradio工具调用:将数千个Gradio AI应用注册为可调用工具
- 文档资源访问:提供Hugging Face文档的搜索和获取能力
- 多传输协议支持:STDIO、SSE、Streamable HTTP等多种通信方式
- Prompt模板:提供用户摘要、论文摘要等预设提示模板
- 认证管理:支持OAuth认证和Hugging Face Token验证
安装步骤
Claude Desktop / claude.ai
- 访问Claude连接器设置
- 在应用商店中添加"Hugging Face"连接器
Claude Code
claude mcp add hf-mcp-server -t http https://huggingface.co/mcp?login
- 启动Claude并按照提示完成认证
Gemini CLI
gemini mcp add -t http huggingface https://huggingface.co/mcp?login
VSCode
- 直接从MCP应用商店安装
- 或手动配置'mcp.json'文件
Cursor
- 点击专用链接直接安装
- 或手动配置连接信息
服务器配置
MCP客户端需要配置以下信息来连接服务器:
- 服务器类型:HTTP传输
- 服务器地址:'https://huggingface.co/mcp'
基本使用方法
- 安装完成后,访问 https://huggingface.co/settings/mcp 配置工具和空间
- 在支持的客户端中调用Hugging Face相关工具:
- 'hf_whoami' - 获取当前用户信息
- 'hf_doc_search' - 搜索Hugging Face文档
- 管理界面:本地部署时可访问 http://localhost:3000/ 进行工具管理
- 支持通过添加'?no_image_content=true'参数来禁用图像内容传输
运行方式
本地运行
npx @llmindset/hf-mcp-server # STDIO模式 npx @llmindset/hf-mcp-server-http # HTTP流模式 npx @llmindset/hf-mcp-server-json # HTTP JSON模式
Docker运行
docker pull ghcr.io/evalstate/hf-mcp-server:latest docker run --rm -p 3000:3000 ghcr.io/evalstate/hf-mcp-server:latest
支持的环境变量:
- 'TRANSPORT':传输类型(stdio/sse/streamableHttp/streamableHttpJson)
- 'DEFAULT_HF_TOKEN':开发环境使用的默认Token
- 'HF_API_TIMEOUT':API请求超时时间
信息
分类
AI与计算