项目简介
本项目是一个正在开发的AI后端平台,旨在整合各种AI能力,包括大型语言模型接口、RAG(检索增强生成)知识库功能、外部工具调用等。通过使用 Model Context Protocol (MCP),该平台能够以标准化的方式向支持MCP协议的LLM客户端提供上下文信息和调用外部功能的接口(工具)。
主要功能点
- 多模型集成: 连接并使用多种主流的大型语言模型API。
- 知识库构建 (RAG): 支持构建和利用外部知识库来增强模型的回答能力。
- 外部工具扩展: 通过 MCP 协议注册和执行自定义工具,赋予AI模型与外部世界交互或执行特定任务的能力。
- 智能工作流 (Agent): 支持定义和编排复杂的AI任务流程。
- 多模态支持: 计划支持语音输入输出、视觉信息处理等。
- API服务: 将整合的AI能力通过API暴露给外部应用使用。
安装步骤
- 安装 Conda: 如果尚未安装,请先下载并安装 Conda 或 Miniconda。
- 创建并激活环境: 打开终端或命令提示符,运行以下命令创建一个新的 Python 环境并激活:
conda create -n ai-learn python=3.12 conda activate ai-learn - 克隆仓库: 将项目代码克隆到本地:
git clone https://github.com/yoyofx/ai-learn.git - 进入目录: 切换到项目根目录:
cd ai-learn - 安装依赖: 项目依赖于 FastAPI 和 MCP 相关库。请根据项目实际情况安装所需的 Python 包。通常可以通过 pip 安装,例如:
(注意:README 中未提供 'requirements.txt' 文件,请根据实际代码或项目文档安装正确的依赖)pip install fastapi uvicorn mcp # 示例依赖,具体请参考项目文件
服务器配置
该项目包含一个 MCP 服务器实现示例。MCP 客户端需要配置服务器的启动命令和参数才能连接。以下是基于示例 'docs/examples/weather_server.py' 的配置信息结构及说明(JSON格式):
{ "name": "Weather", // MCP服务器声明的名称,客户端用此名称标识服务器 "command": "python", // 启动服务器进程的命令(如 'python') "args": [ // 传递给命令的参数列表 "path/to/your/repo/docs/examples/weather_server.py" // MCP服务器脚本文件的路径 ], "transport": "sse" // 服务器使用的传输协议,如 "sse", "stdio", "websocket" 等 }
客户端需要根据实际部署位置修改 'path/to/your/repo/docs/examples/weather_server.py' 为服务器脚本在客户端可执行环境中的实际路径。
基本使用方法
- 按照上述步骤完成环境搭建和代码准备。
- 运行服务器脚本(例如运行 'docs/examples/weather_server.py')。这通常会在后台启动一个进程监听连接。
- 使用一个支持 MCP 协议的客户端应用或库。
- 在客户端配置中添加本 MCP 服务器的信息(使用上面提供的配置结构,并填写实际路径和端口等信息,如果 transport 是 HTTP/SSE/WebSocket 需要指定地址和端口)。
- 客户端连接成功后,即可通过 MCP 协议发现服务器提供的工具(如示例中的 'get_weather')并进行调用。
信息
分类
AI与计算