使用说明
项目简介
GitMind-MCP Server 是一个演示性质的MCP(Model Context Protocol)服务器,旨在连接 Ollama LLM 和 GitHub API。它作为LLM客户端和GitHub API之间的桥梁,验证用户身份,并向LLM声明其可以使用的GitHub相关功能。目前,该服务器仅实现了用户身份验证和功能声明,GitHub数据访问功能尚未完整实现,仅作为功能框架演示。
主要功能点
- 用户身份验证:通过 GitHub 个人访问令牌验证用户身份。
- 功能声明:向 MCP 客户端声明服务器提供的可用功能(目前仅声明了 'get_repos' 功能,但未实际实现)。
- 初步的LLM交互框架:提供客户端代码,演示如何与服务器进行简单的交互,并根据服务器声明的功能向 LLM 提问。
安装步骤
-
克隆仓库
git clone https://github.com/AdityaNarayan001/GitMind-MCP.git cd GitMind-MCP -
安装 Python 依赖 确保你的系统已安装 Python 3.x,然后使用 pip 安装所需的依赖:
pip install flask requests ollama(请注意,客户端和服务端都需要安装 'requests' 和 'ollama',服务端需要安装 'flask')
-
启动 MCP 服务器 在 'server' 目录下,运行服务器代码:
cd server python server.py服务器默认运行在 'http://127.0.0.1:5000'。
服务器配置
MCP 客户端需要配置以下信息以连接到 GitMind-MCP 服务器:
{ "server_name": "GitMind-MCP", "command": "python", "args": ["server/server.py"] }
配置参数说明:
- 'server_name': 服务器名称,可以自定义,用于在客户端标识服务器。例如: "GitMind-MCP"。
- 'command': 启动服务器的命令。由于服务器是 Python 脚本,这里使用 'python' 命令。
- 'args': 启动服务器命令的参数,指向服务器脚本的路径。这里是 '["server/server.py"]',表示执行 'server' 目录下的 'server.py' 文件。
注意: 客户端需要根据实际情况调整 'command' 和 'args',例如 Python 路径、脚本路径等。
基本使用方法
- 启动服务器 (按照上面的安装步骤启动服务器)。
- 运行客户端
打开新的终端窗口,进入 'client' 目录,运行客户端代码:
cd ../client python client.py - 输入 GitHub 个人访问令牌 客户端启动后,会提示你输入 GitHub 个人访问令牌 (Auth Token)。请提前在 GitHub 开发者设置中生成具有 'repo' 权限的个人访问令牌,并粘贴到终端中。
- 与 LLM 交互 成功验证身份后,客户端会进入交互模式,你可以输入自然语言问题。客户端会将问题发送给 Ollama LLM 进行处理,LLM 会根据 'available_features' (服务器声明的功能)生成 JSON 格式的响应。
- 体验功能 目前演示的功能非常有限,你可以尝试与 LLM 进行简单的对话,观察客户端和服务端如何交互。请注意,实际的 GitHub 数据访问功能尚未实现,'get_repos' 功能只是一个声明。
局限性:
- 功能不完整: 仓库仅实现了 MCP 服务器的基本框架,核心的资源管理、工具执行、Prompt 模板等 MCP 核心功能尚未完整实现。
- GitHub 功能未实现: 虽然声明了 'get_repos' 功能,但服务器端代码中并没有实际调用 GitHub API 获取仓库列表的逻辑。
- 仅为演示: 代码质量和健壮性无法保证,仅适合学习和演示 MCP 服务器的基本概念。
信息
分类
AI与计算