使用说明

项目简介

GemSuite MCP 是一个开源 Model Context Protocol (MCP) 服务器,旨在为兼容 MCP 协议的 LLM 客户端(例如 Claude、Cursor、Replit 等)提供强大的 Gemini API 集成能力。它通过智能模型选择和统一的文件处理,优化了 LLM 应用的性能和效率,使开发者能够更便捷地利用 Gemini 的强大功能。

主要功能点

  • 智能模型选择: 根据任务类型(搜索、推理、处理、分析)和内容类型自动选择最合适的 Gemini 模型(Gemini Flash, Gemini Flash-Lite, Gemini Flash Thinking),以达到最佳性能和最低 token 成本。
  • 统一文件处理: 所有工具均支持文件输入,可以无缝处理多种文件类型(文本、代码、图像、文档等),并自动检测文件格式。支持批量文件处理。
  • 专业工具套件: 提供四个功能强大的工具:
    • 'gem_search': 信息检索工具,结合 Google 搜索,适用于事实性问题和最新信息查询。
    • 'gem_reason': 复杂推理工具,擅长解决数学、科学、编程问题,提供逐步推理分析。
    • 'gem_process': 高效内容处理工具,快速进行文本摘要、信息提取等操作,token 成本低。
    • 'gem_analyze': 智能文件分析工具,自动选择模型进行文档、代码、图像等文件的深入分析。
  • 生产就绪: 已在 Smithery.ai, MCP.so, Glama.io 等平台部署和验证,稳定可靠。

安装步骤

  1. 克隆仓库

    git clone https://github.com/PV-Bhat/gemsuite-mcp.git
    cd gemsuite-mcp
  2. 安装依赖

    npm install
  3. 配置 Gemini API 密钥

    • 获取 Gemini API 密钥:访问 Google AI Studio 获取 API 密钥。
    • 设置环境变量:
      • 方法一(推荐):设置全局环境变量 'GEMINI_API_KEY=您的API密钥'
      • 方法二:在项目根目录下创建 '.env' 文件,并添加 'GEMINI_API_KEY=您的API密钥'
  4. 构建项目

    npm run build
  5. 启动服务器

    npm start

    服务器成功启动后,将在控制台输出 'GemSuite MCP server running on stdio'。

服务器配置

以下 JSON 配置信息可用于 MCP 客户端连接 GemSuite MCP 服务器。

{
  "server name": "gemsuite-mcp-server",
  "command": "node",
  "args": [
    "dist/index.js"
  ],
  "注释": "启动 GemSuite MCP 服务器的命令。请确保已安装 Node.js 并已成功构建项目(npm run build)。"
}

基本使用方法

GemSuite MCP 服务器启动后,您可以在任何兼容 MCP 协议的 LLM 客户端中使用其提供的工具。客户端通常会自动检测并列出可用的工具。

  • 工具调用: 在 LLM 客户端中,您可以像调用普通函数一样调用 GemSuite MCP 提供的工具,例如 'gem_search(query="最新的AI技术发展")'。
  • 文件处理: 对于需要处理文件的工具(如 'gem_process', 'gem_analyze'),您可以通过 'file_path' 参数指定文件路径。
  • 模型选择: GemSuite MCP 默认自动选择最佳模型。您也可以通过 'model_id' 参数手动指定模型,用于高级定制。

更详细的工具参数和使用示例,请参考仓库的 README 文档和示例代码。

信息

分类

AI与计算