使用说明
项目简介
GemCP Chat 是一个跨平台的桌面应用程序,旨在为用户提供一个与 Google Gemini AI 模型交互的便捷聊天界面。它通过集成 Model Context Protocol (MCP) 框架,支持 Gemini 模型调用外部工具,从而扩展了 AI 的功能边界。
主要功能点
- Gemini AI 模型集成: 提供与 Google Gemini AI 模型进行自然语言对话的界面。
- MCP 框架支持: 允许集成和管理外部 MCP 服务器,扩展 Gemini 的能力。
- 工具集成: 支持通过 MCP 服务器注册和调用外部工具,例如示例中提供的计算器和天气查询工具。
- 跨平台桌面应用: 基于 Electron 构建,支持 macOS 和 Windows 平台。
- 易于使用的界面: 提供直观的聊天界面和服务器管理功能。
安装步骤
1. 安装 Python 后端
a. 导航到 Python 后端目录:
bash cd python_backend b. 确保已安装 Python 3.13+ 和 uv。如果未安装 uv,请运行:
bash pip install uv c. 安装 Python 依赖:
bash uv pip install . d. 设置 Google API 密钥为环境变量 'GOOGLE_API_KEY'。例如 (Linux/macOS):
bash export GOOGLE_API_KEY=YOUR_API_KEY bash set GOOGLE_API_KEY=YOUR_API_KEY e. 启动 Python 后端服务器:
bash python mcp_flask_backend.py --port 5001 2. 安装 Electron 前端应用
a. 导航到 Electron 应用目录:
bash cd mcp-gemini-desktop b. 确保已安装 Node.js (v16+) 和 npm。
c. 安装前端依赖:
bash npm install d. 启动 Electron 应用(开发模式):
bash npm start 3. 使用预构建的二进制文件 (可选)
- 前往 'mcp-gemini-desktop/dist' 目录,根据你的操作系统下载并安装预构建的应用程序。
服务器配置
GemCP Chat 客户端不需要手动配置 MCP 服务器的连接信息。服务器的添加和管理都在 GemCP Chat 应用程序的图形界面中完成。
要使用示例 MCP 服务器,请在 GemCP Chat 应用程序启动后,点击界面左下角的 “+ Add Server” 按钮,在弹出的文件选择对话框中,选择 'mcp-gemini-desktop/mcp_example_servers/' 目录下的 'mcp_server_calc.py' (计算器服务器) 或 'mcp_server_weather.py' (天气服务器) 脚本文件。
请注意: GemCP Chat 客户端通过文件路径来添加和管理 MCP 服务器,而不是通过传统的服务器地址和端口配置。
基本使用方法
- 启动服务器: 首先确保 Python 后端服务器 ('mcp_flask_backend.py') 正在运行。
- 启动客户端: 启动 GemCP Chat 桌面应用程序。
- 添加 MCP 服务器: 点击 “+ Add Server” 按钮,选择要添加的 MCP 服务器脚本(如 'mcp_server_calc.py' 或 'mcp_server_weather.py')。添加成功的服务器会显示在左侧的服务器列表中,并显示其提供的工具。
- 开始聊天: 在聊天输入框中输入消息,点击发送按钮或按下 Enter 键与 Gemini 模型进行对话。
- 使用工具: 在对话中,你可以指示 Gemini 使用已添加的工具。例如,你可以问 "What's the weather in London?" (如果你添加了天气服务器) 或 "Calculate 123 * 456" (如果你添加了计算器服务器)。Gemini 会根据你的指示调用相应的工具,并返回结果。
- 管理服务器: 在服务器列表中,你可以查看已添加服务器的状态,并点击 "×" 按钮移除服务器。
信息
分类
桌面与硬件