使用说明
项目简介
GemSuite MCP 是一个开源 Model Context Protocol (MCP) 服务器,旨在为兼容 MCP 协议的 LLM 客户端(例如 Claude、Cursor、Replit 等)提供强大的 Gemini API 集成能力。它通过智能模型选择和统一的文件处理,优化了 LLM 应用的性能和效率,使开发者能够更便捷地利用 Gemini 的强大功能。
主要功能点
- 智能模型选择: 根据任务类型(搜索、推理、处理、分析)和内容类型自动选择最合适的 Gemini 模型(Gemini Flash, Gemini Flash-Lite, Gemini Flash Thinking),以达到最佳性能和最低 token 成本。
- 统一文件处理: 所有工具均支持文件输入,可以无缝处理多种文件类型(文本、代码、图像、文档等),并自动检测文件格式。支持批量文件处理。
- 专业工具套件: 提供四个功能强大的工具:
- 'gem_search': 信息检索工具,结合 Google 搜索,适用于事实性问题和最新信息查询。
- 'gem_reason': 复杂推理工具,擅长解决数学、科学、编程问题,提供逐步推理分析。
- 'gem_process': 高效内容处理工具,快速进行文本摘要、信息提取等操作,token 成本低。
- 'gem_analyze': 智能文件分析工具,自动选择模型进行文档、代码、图像等文件的深入分析。
- 生产就绪: 已在 Smithery.ai, MCP.so, Glama.io 等平台部署和验证,稳定可靠。
安装步骤
-
克隆仓库
git clone https://github.com/PV-Bhat/gemsuite-mcp.git cd gemsuite-mcp -
安装依赖
npm install -
配置 Gemini API 密钥
- 获取 Gemini API 密钥:访问 Google AI Studio 获取 API 密钥。
- 设置环境变量:
- 方法一(推荐):设置全局环境变量 'GEMINI_API_KEY=您的API密钥'
- 方法二:在项目根目录下创建 '.env' 文件,并添加 'GEMINI_API_KEY=您的API密钥'
-
构建项目
npm run build -
启动服务器
npm start服务器成功启动后,将在控制台输出 'GemSuite MCP server running on stdio'。
服务器配置
以下 JSON 配置信息可用于 MCP 客户端连接 GemSuite MCP 服务器。
{ "server name": "gemsuite-mcp-server", "command": "node", "args": [ "dist/index.js" ], "注释": "启动 GemSuite MCP 服务器的命令。请确保已安装 Node.js 并已成功构建项目(npm run build)。" }
基本使用方法
GemSuite MCP 服务器启动后,您可以在任何兼容 MCP 协议的 LLM 客户端中使用其提供的工具。客户端通常会自动检测并列出可用的工具。
- 工具调用: 在 LLM 客户端中,您可以像调用普通函数一样调用 GemSuite MCP 提供的工具,例如 'gem_search(query="最新的AI技术发展")'。
- 文件处理: 对于需要处理文件的工具(如 'gem_process', 'gem_analyze'),您可以通过 'file_path' 参数指定文件路径。
- 模型选择: GemSuite MCP 默认自动选择最佳模型。您也可以通过 'model_id' 参数手动指定模型,用于高级定制。
更详细的工具参数和使用示例,请参考仓库的 README 文档和示例代码。
信息
分类
AI与计算