Gemini MCP 服务器
使用说明内容(Markdown格式)
-
项目简介
- Gemini MCP 服务器是一个面向 LLM 客户端的后端服务,基于 MCP 协议实现,旨在以标准化的方式向客户端提供资源数据、可调用的工具以及可渲染的提示模板,从而支持 LLM 的上下文管理、功能调用和交互式对话。
-
主要功能点
- 实现 MCP 服务器核心能力:通过 MCP 的服务器端 API 注册和暴露多种工具组(如查询、分析、图像生成、视频、文本分析等),并以 JSON-RPC 的形式响应客户端请求。
- 自然语言工具集成:集成 18 个工具组,覆盖查询、分析、图像/视频生成、代码执行、搜索、文档分析、URL 上下文、深度研究等场景。
- Gemini 模型对接:封装 Gemini 3 Pro、Flash 等模型的调用,支持思维深度控制、4K 图像、AI 生成等能力,并对不同模型提供适配配置。
- 传输与鲁棒性:使用 StdioServerTransport(标准输入输出)作为 MCP 传输通道,包含连接、异常处理以及断线重连逻辑。
- 会话与缓存:内置会话管理、深度研究任务、缓存、缓存查询等能力,便于跨请求复用与成本控制。
- 环境与配置信息:通过环境变量(如 GEMINI_API_KEY、GEMINI_MODEL、GEMINI_PRO_MODEL 等)及工具 presets 控制加载的工具、模型和输出目录。
-
安装步骤
- 克隆仓库并安装依赖(概述性步骤):
- 安装所需运行时环境(如 Node/TypeScript 环境、bun/npm)。
- 安装依赖并编译/启动服务(仓库提供的脚本在 README 与 package.json 中有所说明)。
- 运行 MCP 服务器(开发/调试模式):
- 使用项目提供的入口启动脚本,默认以 MCP 服务器模式启动,通过标准输入输出对外提供 MCP 接口。
- 克隆仓库并安装依赖(概述性步骤):
-
服务器配置(MCP 客户端使用的启动信息说明)
- 服务器名称: Gemini
- 启动命令: bun
- 启动参数(示例,可按实际环境调整): ["run","dev","--verbose"]
- 传输协议: stdio
- 说明: 服务器通过 GEMINI_API_KEY 与 Gemini 模型进行对接,暴露18个工具分组,客户端通过 MCP 请求访问资源、调用工具、获取 Prompts 等能力。
- 参数注释(示例说明,非代码块呈现)
- serverName:MCP 服务标识,用于客户端识别服务来源
- command/args:启动服务器的真实命令及参数,等同于在终端执行的命令
- transport:底层传输协议,这里使用 stdio(标准输入输出),以符合 MCP 的简化部署场景
- 重要前提:环境变量 GEMINI_API_KEY 需在启动前设置,服务器会在初始化阶段测试 Gemini API 的连通性
-
基本使用方法
- 启动后,客户端(LLM 应用)通过 MCP 的 JSON-RPC 调用对 Gemini 的多种工具进行资源访问、工具执行和提示渲染。
- 客户端可以基于工具组进行配置(通过 GEMINI_TOOL_PRESET、GEMINI_ENABLED_TOOLS 等环境变量)来控制加载的工具集合,减少上下文压力。
- 典型工作流包括:查询 Gemini、进行深度研究、图像/视频/文本分析、YouTube/URL 上下文分析、文档分析等,均可通过 MCP 工具暴露的接口调用。