项目简介 mcp-nvidia是一个强大的MCP服务器,它使大型语言模型(LLM)能够无缝地搜索和发现NVIDIA博客、文档、新闻、论坛、研究论文、NGC目录以及开发者资源等多个官方领域的信息。它通过提供智能搜索、丰富元数据提取和SDK资源,赋能LLM更准确地回答关于NVIDIA技术、产品和服务的查询。
主要功能点
- 智能搜索与排名: 跨15个默认NVIDIA官方域名进行高级搜索,结合关键词提取、上下文感知片段(加粗高亮)、灵活排序(相关性、发布日期、域名)和高级相关性评分,帮助LLM找到最相关的信息。
- 内容类型检测与元数据提取: 自动识别内容类型(如教程、公告、指南、论坛讨论等),并提取出版日期、作者、字数、代码/视频/图像检测等丰富元数据。
- SDK资源暴露: 将工具的TypeScript和Python SDK作为MCP资源公开,支持LLM在代码执行模式下发现、阅读类型定义并编写类型安全的API调用代码,实现更高级的AI Agent工作流。
- 多传输协议支持: 支持Stdio模式(用于本地MCP客户端,如Claude Desktop)和HTTP/SSE模式(用于远程访问和Web客户端)。
- 专用内容发现: 提供“发现NVIDIA内容”功能,专门用于查找视频、课程、教程、网络研讨会或博客等特定类型的NVIDIA教育和学习资源。
安装步骤
- 前提条件: 确保你的系统已安装Python 3.10或更高版本。
- 推荐安装 (通过npx):
在命令行运行:
npx @bharatr21/mcp-nvidia - 通过pip安装:
在命令行运行:
pip install mcp-nvidia - 从源代码安装:
如果您需要从源代码运行或进行开发,请执行以下步骤:
git clone https://github.com/bharatr21/mcp-nvidia.git cd mcp-nvidia pip install -e .
服务器配置 MCP服务器需要与MCP客户端配合使用。以下是配置MCP客户端(例如Claude Desktop)以连接mcp-nvidia服务器的示例信息:
1. 本地Stdio模式 (推荐): 这种方式适用于MCP客户端与服务器在同一台机器上运行。你只需要在MCP客户端的配置中指定服务器的启动命令。
在MCP客户端的配置文件中(例如Claude Desktop的 'claude_desktop_config.json'),添加以下内容:
{ "mcpServers": { "nvidia": { "command": "mcp-nvidia" } } }
说明:
- '"nvidia"': 你为这个MCP服务器指定的名称。
- '"command"': 启动mcp-nvidia服务器的命令。如果mcp-nvidia已通过pip或npx全局安装,通常是'"mcp-nvidia"'。
2. 本地Stdio模式 (带自定义配置): 你也可以通过环境变量来配置服务器的行为,例如日志级别或搜索域名。
在MCP客户端的配置文件中,添加以下内容:
{ "mcpServers": { "nvidia": { "command": "mcp-nvidia", "env": { "MCP_NVIDIA_LOG_LEVEL": "DEBUG", "MCP_NVIDIA_DOMAINS": "https://developer.nvidia.com/,https://docs.nvidia.com/" } } } }
说明:
- '"env"': 一个字典,用于设置服务器进程的环境变量。
- '"MCP_NVIDIA_LOG_LEVEL"': 设置日志级别(例如'"DEBUG"'、'"INFO"'、'"WARNING"'、'"ERROR"'、'"CRITICAL"')。
- '"MCP_NVIDIA_DOMAINS"': 逗号分隔的自定义NVIDIA域名列表,用于覆盖默认搜索范围。请注意,仅允许'nvidia.com'及其子域名。
3. 远程HTTP/SSE模式: 如果MCP服务器部署在远程主机上,或者你需要通过HTTP访问,可以使用HTTP/SSE模式。
首先,在服务器端启动HTTP模式: 在服务器的命令行中运行:
mcp-nvidia http --host 0.0.0.0 --port 8000
然后,在MCP客户端的配置文件中,添加以下内容:
{ "mcpServers": { "nvidia": { "url": "https://your-server.com/sse", "transport": "sse" } } }
说明:
- '"url"': 远程MCP服务器的SSE端点URL。
- '"transport"': 指定传输协议为'"sse"'。
基本使用方法 一旦MCP客户端配置并连接到mcp-nvidia服务器,LLM即可通过调用工具来使用其功能。mcp-nvidia提供了'search_nvidia'和'discover_nvidia_content'两个核心工具。
示例:LLM调用 'search_nvidia' 工具 LLM会发送一个JSON-RPC请求,包含工具名称和参数,例如: 'search_nvidia(query="CUDA编程最佳实践", max_results_per_domain=5, sort_by="relevance")'
示例:LLM调用 'discover_nvidia_content' 工具 LLM会发送一个JSON-RPC请求,例如: 'discover_nvidia_content(content_type="course", topic="深度学习", max_results=3)'
服务器将处理请求,执行搜索或内容发现,并将结构化JSON结果返回给LLM。LLM可以解析这些结果来回答用户的查询或执行进一步的任务。
信息
分类
网页与API