项目简介
该项目是一个实现 Model Context Protocol (MCP) 的服务器端应用。它允许兼容MCP协议的LLM客户端(例如 Claude Desktop)通过标准的 JSON-RPC 接口与服务器通信,并利用 Google 的 Gemini 模型执行文本生成任务。
主要功能点
- 文本生成: 将客户端发起的文本生成请求通过 Google Gemini API 执行,并返回结果。
- MCP协议支持: 实现MCP服务器规范,通过定义和暴露名为 'generate_text' 的工具,使得LLM客户端能够发现并调用该功能。
- 会话上下文: 服务器端维护基本的对话历史,以支持更自然的连续交互。
- 直接API调用: 使用直接HTTP请求与Gemini API交互,无需依赖旧版SDK。
安装步骤
- 确保您已安装 Node.js (版本 18 或更高) 和 npm。
- 获取项目代码:
git clone https://github.com/IA-Entertainment-git-organization/gemini-mcp-server.git cd gemini-mcp-server - 安装项目依赖:
npm install - 构建项目:
这将生成可执行的 JavaScript 文件,通常在 'dist' 目录下。npm run build
服务器配置
该MCP服务器需要由一个兼容的MCP客户端(如 Claude Desktop)来启动和连接。客户端需要配置服务器的启动信息。以下是一个典型的JSON配置示例,您需要将其添加到您的MCP客户端的配置中(例如 Claude Desktop 的 'claude_desktop_config.json' 文件中的 'mcpServers' 部分):
"gemini": { "command": "node", "args": ["<您项目的绝对路径>/dist/gemini_mcp_server.js"], "env": { "GEMINI_API_KEY": "您的Google Gemini API密钥" } }
- '"gemini"': 这是您在客户端中为此服务器指定的名称,客户端会使用这个名称来识别和引用此服务器。
- '"command"': 启动服务器进程的命令,通常是 'node'。
- '"args"': 传递给启动命令的参数数组,第一个参数是服务器主入口文件的路径(请替换为您的实际路径)。
- '"env"': 设置服务器进程所需的环境变量。'GEMINI_API_KEY' 是必需的,请将 '"您的Google Gemini API密钥"' 替换为您真实的API密钥。
配置完成后,启动您的MCP客户端,它应该能够检测并连接到此Gemini MCP服务器。
基本使用方法
一旦MCP客户端成功连接并识别了此Gemini MCP服务器,LLM通常就可以通过服务器提供的工具与Gemini模型交互。具体的使用方式取决于您的客户端应用。通常,LLM会根据用户的输入和服务器提供的工具描述,决定何时调用服务器上的 'generate_text' 工具,并传递必要的参数(如用户输入的提示词)。您可能需要直接在客户端中与LLM对话,LLM会自动在需要时利用这个服务器来获取Gemini的生成结果。
关键词
Gemini, 文本生成, LLM工具, AI集成
信息
分类
AI与计算