使用说明
项目简介
Ollama Desktop API 是 Ollama Desktop 桌面应用程序的后端服务组件。它基于 FastAPI 框架开发,旨在为前端桌面应用提供与 Ollama AI 模型以及 MCP (Model Context Protocol) 服务器进行交互的 API 接口。通过此 API,Ollama Desktop 应用程序能够实现基础的聊天功能,并能进一步通过连接和利用 MCP 服务器提供的各种工具来扩展和增强 AI 的能力。
主要功能点
- Ollama 模型服务: 提供 API 接口,支持与 Ollama 模型进行聊天对话,利用 Ollama 强大的本地模型运行能力。
- MCP 协议集成: 集成了 MCP 协议客户端功能,可以连接并查询兼容 MCP 协议的服务器,从而利用外部工具扩展 AI 的能力。
- 会话管理: 具备完善的聊天会话管理功能,支持创建、查询和删除聊天会话,以及检索会话历史记录。
- MCP 服务器配置管理: 支持配置和管理 MCP 服务器连接信息,方便用户根据需求添加和切换不同的 MCP 服务器。
安装步骤
- 环境准备: 确保您的系统中已安装 Python 3.8 或更高版本,并已安装 pip 包管理器。
- 克隆仓库: 使用 git 命令克隆 Ollama Desktop 仓库到本地:
git clone https://github.com/mshojaei77/ollama-desktop - 进入 API 目录: 通过命令行进入仓库的 'api' 目录:
cd ollama-desktop/api - 安装依赖: 使用 pip 安装项目所需的 Python 依赖包:
pip install -r requirements.txt
服务器配置
MCP 服务器的配置信息存储在 'ollama_desktop_config.json' 文件中。用户可以通过修改此配置文件或通过 API 接口 '/mcp/servers' 进行管理。以下是一个典型的 MCP 服务器配置示例 (例如配置名为 "fetch" 的服务器):
{ "mcpServers": { "fetch": { "command": "uvx", // MCP 服务器的启动命令,例如 'uvx' 或 'npx',需要确保命令在系统 PATH 中可访问 "args": ["mcp-server-fetch"] // 启动命令的参数列表,例如 ['mcp-server-fetch'],根据实际 MCP 服务器的要求进行配置 } } }
配置说明:
- '"server name"': MCP 服务器的名称,例如 "fetch",用于在客户端中标识和选择服务器。
- '"command"': 启动 MCP 服务器的可执行命令。这通常是 MCP 服务器的启动脚本或可执行文件。请确保此命令在您的系统环境变量 PATH 中可访问,或者使用绝对路径。
- '"args"': 传递给启动命令的参数列表。参数应根据您使用的 MCP 服务器的具体要求进行配置。例如,某些服务器可能需要指定端口号或其他启动选项。
重要提示: MCP 客户端 (例如 Ollama Desktop 桌面应用) 需要读取并使用 'ollama_desktop_config.json' 文件中的服务器配置信息,才能与 MCP 服务器建立连接并调用其提供的工具。客户端通常需要配置 MCP 服务器的 "server name" (例如 "fetch"),以便在应用界面中选择和使用特定的 MCP 服务器。
基本使用方法
- 启动 API 服务: 在命令行中,切换到 'ollama-desktop/api' 目录,并运行以下命令启动 FastAPI 服务:
默认情况下,API 服务将运行在 'http://localhost:8000'。您可以在浏览器中访问 'http://localhost:8000/docs' 查看 Swagger UI 接口文档。python ollama_mcp_api.py - 配置 Ollama Desktop 客户端: 启动 Ollama Desktop 桌面应用程序,并在设置或配置界面中,指定 API 服务的地址 (默认为 'http://localhost:8000')。
- 使用客户端功能: 在 Ollama Desktop 客户端中,您可以进行以下操作:
- 选择和切换不同的 Ollama 模型进行聊天。
- 配置和连接 MCP 服务器,启用工具扩展功能。
- 进行基于 MCP 工具的查询,增强 AI 的问答和处理能力。
- 查看和管理聊天会话历史。
信息
分类
桌面与硬件