项目简介

本项目是一个正在开发的AI后端平台,旨在整合各种AI能力,包括大型语言模型接口、RAG(检索增强生成)知识库功能、外部工具调用等。通过使用 Model Context Protocol (MCP),该平台能够以标准化的方式向支持MCP协议的LLM客户端提供上下文信息和调用外部功能的接口(工具)。

主要功能点

  • 多模型集成: 连接并使用多种主流的大型语言模型API。
  • 知识库构建 (RAG): 支持构建和利用外部知识库来增强模型的回答能力。
  • 外部工具扩展: 通过 MCP 协议注册和执行自定义工具,赋予AI模型与外部世界交互或执行特定任务的能力。
  • 智能工作流 (Agent): 支持定义和编排复杂的AI任务流程。
  • 多模态支持: 计划支持语音输入输出、视觉信息处理等。
  • API服务: 将整合的AI能力通过API暴露给外部应用使用。

安装步骤

  1. 安装 Conda: 如果尚未安装,请先下载并安装 Conda 或 Miniconda。
  2. 创建并激活环境: 打开终端或命令提示符,运行以下命令创建一个新的 Python 环境并激活:
    conda create -n ai-learn python=3.12
    conda activate ai-learn
  3. 克隆仓库: 将项目代码克隆到本地:
    git clone https://github.com/yoyofx/ai-learn.git
  4. 进入目录: 切换到项目根目录:
    cd ai-learn
  5. 安装依赖: 项目依赖于 FastAPI 和 MCP 相关库。请根据项目实际情况安装所需的 Python 包。通常可以通过 pip 安装,例如:
    pip install fastapi uvicorn mcp  # 示例依赖,具体请参考项目文件
    (注意:README 中未提供 'requirements.txt' 文件,请根据实际代码或项目文档安装正确的依赖)

服务器配置

该项目包含一个 MCP 服务器实现示例。MCP 客户端需要配置服务器的启动命令和参数才能连接。以下是基于示例 'docs/examples/weather_server.py' 的配置信息结构及说明(JSON格式):

{
  "name": "Weather", // MCP服务器声明的名称,客户端用此名称标识服务器
  "command": "python", // 启动服务器进程的命令(如 'python')
  "args": [            // 传递给命令的参数列表
    "path/to/your/repo/docs/examples/weather_server.py" // MCP服务器脚本文件的路径
  ],
  "transport": "sse"   // 服务器使用的传输协议,如 "sse", "stdio", "websocket" 等
}

客户端需要根据实际部署位置修改 'path/to/your/repo/docs/examples/weather_server.py' 为服务器脚本在客户端可执行环境中的实际路径。

基本使用方法

  1. 按照上述步骤完成环境搭建和代码准备。
  2. 运行服务器脚本(例如运行 'docs/examples/weather_server.py')。这通常会在后台启动一个进程监听连接。
  3. 使用一个支持 MCP 协议的客户端应用或库。
  4. 在客户端配置中添加本 MCP 服务器的信息(使用上面提供的配置结构,并填写实际路径和端口等信息,如果 transport 是 HTTP/SSE/WebSocket 需要指定地址和端口)。
  5. 客户端连接成功后,即可通过 MCP 协议发现服务器提供的工具(如示例中的 'get_weather')并进行调用。

信息

分类

AI与计算