项目简介
这是一个遵循 Model Context Protocol (MCP) 标准实现的服务器应用。它通过集成俄罗斯联邦储蓄银行 (Sber) 提供的 GigaChat API,为兼容 MCP 的客户端(如大型语言模型助手)提供检测文本是否由人工智能生成的服务。服务器充当客户端与 GigaChat API 之间的桥梁,处理认证和请求细节,将检测能力以标准化的 MCP 工具形式暴露给客户端。
主要功能点
- 文本 AI 生成检测: 提供一个工具,允许用户或 AI 助手提交一段文本,服务器会调用 GigaChat API 对其进行分析,判断文本是否具有 AI 生成的特征。
- 文件 AI 生成检测: 提供另一个工具,允许用户提交一个文本文件的路径,服务器会读取文件内容并执行与文本检测相同的 AI 生成检测流程。
- MCP 兼容性: 作为 MCP 服务器运行,可以通过 MCP 客户端(如某些 IDE 或 AI 助手)进行配置、启动和调用其提供的工具。
重要提示: 使用此服务器进行 AI 生成检测依赖于 GigaChat API,且该功能目前仅对拥有 GigaChat API 公司级( юрлиц)账户的用户开放。请确保您具备相应的 API 访问权限和授权信息。
安装步骤
- 克隆仓库: 将该 GitHub 仓库克隆到本地文件系统。
- 安装 Python: 确保您的系统安装了 Python 3.12 或更高版本。
- 安装依赖: 在项目目录下,使用 pip 安装必要的 Python 包。根据代码,主要依赖是用于构建 MCP 服务器的 'fastmcp' 和用于进行 HTTP 请求的 'httpx'。
pip install fastmcp httpx - 获取 GigaChat API 授权: 从 Sber 获取您的 GigaChat API 公司级账户的授权数据。这些数据通常是 Base64 编码的。
服务器配置
MCP 服务器通常由 MCP 客户端通过一个配置文件启动和管理。您需要在您的 MCP 客户端的配置文件(通常是一个 JSON 文件)中添加一个条目来描述此服务器。以下是配置示例及其说明:
您需要在客户端配置文件的 'mcpServers' 部分添加类似如下的配置:
// 示例配置,添加到 MCP 客户端的配置文件中 "mcp-giga-checker": { // 服务器的内部名称,客户端用来引用它 "command": "uvx", // 启动服务器的命令。uvx 是一个通用的 Python 包运行器。 "args": ["--from", "mcp_giga_checker", "mcp-giga-checker"], // 传递给 command 的参数。告诉 uvx 运行 mcp_giga_checker 包的主模块。 "enabled": true, // 是否启用此服务器 "env": { // 服务器运行时需要的环境变量 "GIGACHAT_AUTH": "your_base64_encoded_giga_auth_string", // 替换为您的 GigaChat API Base64 编码授权字符串 "GIGACHAT_SCOPE": "GIGACHAT_API_CORP" // GigaChat API 的授权范围,公司账户通常是 GIGACHAT_API_CORP } }
请将 'your_base64_encoded_giga_auth_string' 替换为您实际的 GigaChat API 授权数据。
基本使用方法
配置完成后,您的 MCP 客户端应该能够识别并启动此服务器。服务器会通过标准输入/输出 (stdio) 与客户端通信。
您无需直接与服务器命令行交互。通过您的 MCP 客户端界面或其集成的 AI 功能,您将能够:
- 发现工具: 客户端会列出服务器提供的工具,即 'giga_check_text' 和 'giga_check_file'。
- 调用工具: 您或 AI 助手可以通过客户端调用这些工具。
- 调用 'giga_check_text' 工具时,提供需要检测的文本内容作为输入。
- 调用 'giga_check_file' 工具时,提供需要检测的文本文件的完整路径作为输入。
- 获取结果: 服务器执行检测后,会将结果(通常是一个 JSON 格式的数据)通过 MCP 协议返回给客户端,客户端再展示给您或用于其他目的。结果通常包含文本被判定为 AI 生成的可能性等信息。
确保运行 MCP 客户端的环境已设置好 'GIGACHAT_AUTH' 和 'GIGACHAT_SCOPE' 环境变量,或者它们已在客户端的服务器配置中指定,以便服务器能够成功获取 GigaChat API 的访问令牌。
信息
分类
AI与计算