项目简介
这是一个为AI助手(特别是基于大语言模型如Claude)设计的后端服务原型,旨在通过结构化的方式管理学生的日程、笔记、任务等数据。它实现了Model Context Protocol (MCP) 的核心理念,允许AI通过标准API接口访问和操作这些数据,充当AI驱动的学生生活管理工具的后端支持。
主要功能点
- 结构化数据管理: 托管和管理学生的日程、日记、学习任务、笔记和项目等多种类型的数据。
- 标准API接口: 提供结构化的HTTP接口(GET, POST, PUT, DELETE, SEARCH),供AI助手调用以访问和修改数据。
- MCP Schema声明: 提供一个 '/schema' 端点,清晰地声明了后端服务提供的资源类型、描述和字段,方便AI助手发现和理解服务能力。
- 与AI助手集成: 设计用于与支持工具使用的AI模型(如Anthropic Claude)配合,AI可以解析用户指令,然后调用此后端服务的相应API来完成任务(例如,查找笔记、添加任务、删除日记)。
安装步骤
- 克隆仓库到本地:
git clone https://github.com/Chukwuemekaeze/student-life-organizer.git cd student-life-organizer - 创建并激活Python虚拟环境:
python -m venv venv # Windows: venv\Scripts\activate # macOS/Linux: source venv/bin/activate - 安装所需的Python库:
pip install -r requirements.txt
服务器配置(供MCP客户端参考)
此仓库提供了MCP服务器实现。一个标准的MCP客户端需要知道如何启动并连接到这个服务器。根据仓库信息,服务器的启动命令和连接信息大致如下:
- 服务器名称 (server name): 例如填写 "Student Life Organizer MCP"
- 启动命令 (command): 'python'
- 启动参数 (args): '["backend/mcp_server/app.py"]'
- 连接信息: 服务器默认在本地的 8000 端口上提供HTTP服务。如果MCP客户端运行在本地并能启动进程,它可以配置为启动上述命令,然后通过 'http://localhost:8000' 连接。如果AI模型服务(如Claude API)需要远程访问,则需要使用 Ngrok 等工具将本地端口暴露到公网,并将公网URL提供给AI助手或MCP客户端。客户端通常需要配置这个Base URL(例如通过环境变量)。
基本使用方法
-
启动Flask MCP服务器: 在仓库根目录下,激活虚拟环境后运行:
python backend/mcp_server/app.py服务器将在本地 8000 端口启动。
-
暴露服务器(如果需要远程访问): 如果AI助手需要通过公网访问你的本地服务器,可以使用 Ngrok:
ngrok http 8000获取 Ngrok 提供的 HTTPS 公网 URL。
-
设置环境变量: 创建 '.env' 文件,填入你的 Anthropic API Key 和步骤2中获取的 MCP Schema URL:
ANTHROPIC_API_KEY=your-key-here MCP_SCHEMA_URL=https://your-ngrok-url.ngrok-free.app/schema -
运行AI交互模拟: 运行 'talk_to_claude.py' 脚本来模拟AI助手与你的MCP服务器的交互:
python talk_to_claude.py脚本将模拟AI接收指令,解析schema,调用后端API,并处理结果。
信息
分类
生产力应用