使用说明

项目简介

GitMind-MCP Server 是一个演示性质的MCP(Model Context Protocol)服务器,旨在连接 Ollama LLM 和 GitHub API。它作为LLM客户端和GitHub API之间的桥梁,验证用户身份,并向LLM声明其可以使用的GitHub相关功能。目前,该服务器仅实现了用户身份验证和功能声明,GitHub数据访问功能尚未完整实现,仅作为功能框架演示。

主要功能点

  • 用户身份验证:通过 GitHub 个人访问令牌验证用户身份。
  • 功能声明:向 MCP 客户端声明服务器提供的可用功能(目前仅声明了 'get_repos' 功能,但未实际实现)。
  • 初步的LLM交互框架:提供客户端代码,演示如何与服务器进行简单的交互,并根据服务器声明的功能向 LLM 提问。

安装步骤

  1. 克隆仓库

    git clone https://github.com/AdityaNarayan001/GitMind-MCP.git
    cd GitMind-MCP
  2. 安装 Python 依赖 确保你的系统已安装 Python 3.x,然后使用 pip 安装所需的依赖:

    pip install flask requests ollama

    (请注意,客户端和服务端都需要安装 'requests' 和 'ollama',服务端需要安装 'flask')

  3. 启动 MCP 服务器 在 'server' 目录下,运行服务器代码:

    cd server
    python server.py

    服务器默认运行在 'http://127.0.0.1:5000'。

服务器配置

MCP 客户端需要配置以下信息以连接到 GitMind-MCP 服务器:

{
  "server_name": "GitMind-MCP",
  "command": "python",
  "args": ["server/server.py"]
}

配置参数说明:

  • 'server_name': 服务器名称,可以自定义,用于在客户端标识服务器。例如: "GitMind-MCP"。
  • 'command': 启动服务器的命令。由于服务器是 Python 脚本,这里使用 'python' 命令。
  • 'args': 启动服务器命令的参数,指向服务器脚本的路径。这里是 '["server/server.py"]',表示执行 'server' 目录下的 'server.py' 文件。

注意: 客户端需要根据实际情况调整 'command' 和 'args',例如 Python 路径、脚本路径等。

基本使用方法

  1. 启动服务器 (按照上面的安装步骤启动服务器)。
  2. 运行客户端 打开新的终端窗口,进入 'client' 目录,运行客户端代码:
    cd ../client
    python client.py
  3. 输入 GitHub 个人访问令牌 客户端启动后,会提示你输入 GitHub 个人访问令牌 (Auth Token)。请提前在 GitHub 开发者设置中生成具有 'repo' 权限的个人访问令牌,并粘贴到终端中。
  4. 与 LLM 交互 成功验证身份后,客户端会进入交互模式,你可以输入自然语言问题。客户端会将问题发送给 Ollama LLM 进行处理,LLM 会根据 'available_features' (服务器声明的功能)生成 JSON 格式的响应。
  5. 体验功能 目前演示的功能非常有限,你可以尝试与 LLM 进行简单的对话,观察客户端和服务端如何交互。请注意,实际的 GitHub 数据访问功能尚未实现,'get_repos' 功能只是一个声明。

局限性:

  • 功能不完整: 仓库仅实现了 MCP 服务器的基本框架,核心的资源管理、工具执行、Prompt 模板等 MCP 核心功能尚未完整实现。
  • GitHub 功能未实现: 虽然声明了 'get_repos' 功能,但服务器端代码中并没有实际调用 GitHub API 获取仓库列表的逻辑。
  • 仅为演示: 代码质量和健壮性无法保证,仅适合学习和演示 MCP 服务器的基本概念。

信息

分类

AI与计算