使用说明
项目简介
Ollama 是一个用于在本地机器上快速部署和运行大型语言模型的工具。它旨在简化 LLM 的使用,让用户能够轻松地下载、运行和定制各种模型。Ollama 通过命令行界面和 REST API 提供服务,方便用户在本地进行模型推理和开发 LLM 应用。
主要功能点
- 本地模型运行: 允许用户在 macOS、Windows 和 Linux 系统上本地运行大型语言模型,无需复杂的配置。
- 模型库支持: 提供丰富的模型库,用户可以轻松下载和使用各种预训练模型,如 Llama2、Mistral 等。
- 模型定制: 支持通过 Modelfile 定制模型,包括导入 GGUF/Safetensors 格式的模型、自定义 Prompt 模板、设置模型参数等。
- REST API 接口: 提供 REST API,允许开发者通过 HTTP 请求与 Ollama 服务器交互,进行文本生成、对话等操作。
- 命令行工具: 提供简洁易用的命令行工具 'ollama',用于模型管理、运行和交互。
安装步骤
-
macOS:
- 访问 Ollama 官网下载页 下载 macOS 版本安装包 ('Ollama-darwin.zip')。
- 解压安装包,将 Ollama.app 拖拽到 “Applications” 文件夹。
- 运行 Ollama.app 启动服务器。
-
Windows:
- 访问 Ollama 官网下载页 下载 Windows 版本安装包 ('OllamaSetup.exe')。
- 运行安装程序 ('OllamaSetup.exe'),按照提示完成安装。
- 安装完成后,Ollama 应用程序会自动启动。
-
Linux:
- 打开终端,运行以下命令安装 Ollama:
curl -fsSL https://ollama.com/install.sh | sh - 安装完成后,使用 'ollama serve' 命令启动服务器(通常安装脚本会自动启动)。
- 打开终端,运行以下命令安装 Ollama:
-
Docker:
- 使用 Docker Hub 上的官方 Ollama 镜像 'ollama/ollama'。
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
- 使用 Docker Hub 上的官方 Ollama 镜像 'ollama/ollama'。
服务器配置
MCP 客户端可以通过以下 JSON 配置信息连接到 Ollama 服务器:
{ "server name": "ollama", "command": "ollama", "args": ["serve"], "description": "Ollama 服务器", "notes": "Ollama 服务器默认监听 127.0.0.1:11434,可以通过 OLLAMA_HOST 环境变量配置监听地址和端口。" }
参数注释:
- 'server name': 服务器名称,可以自定义。
- 'command': 启动 Ollama 服务器的命令,通常为 'ollama'。
- 'args': 启动命令的参数,这里使用 'serve' 参数启动服务器模式。
- 'description': 服务器描述信息,可以自定义。
- 'notes': 关于服务器配置的补充说明,例如默认地址和端口、环境变量配置等。
基本使用方法
-
启动 Ollama 服务器:
- 按照上述安装步骤启动 Ollama 服务器。对于 macOS 和 Windows,通常是运行应用程序;对于 Linux 和 Docker,使用 'ollama serve' 命令。
-
使用命令行工具 'ollama' 与模型交互:
- 运行模型: 使用 'ollama run <模型名称>' 命令运行模型,例如 'ollama run llama3.2'。
- 下载模型: 如果本地没有该模型,'ollama run' 命令会自动下载。也可以使用 'ollama pull <模型名称>' 提前下载模型。
- 自定义 Prompt: 在 'ollama run' 命令后添加文本作为 Prompt,与模型进行对话,例如 'ollama run llama3.2 "你好"'。
- 多行输入: 使用 '"""' 包裹多行文本作为输入。
-
使用 REST API 接口:
- Ollama 服务器默认监听 'http://localhost:11434'。
- 生成文本: 发送 POST 请求到 'http://localhost:11434/api/generate',请求体为 JSON 格式,包含 'model' 和 'prompt' 字段。
{ "model": "llama3.2", "prompt": "Why is the sky blue?" } - 对话: 发送 POST 请求到 'http://localhost:11434/api/chat',请求体为 JSON 格式,包含 'model' 和 'messages' 字段,'messages' 是包含角色和内容的对话历史记录。
{ "model": "llama3.2", "messages": [ { "role": "user", "content": "why is the sky blue?" } ] } - 更多 API 端点和参数请参考 API 文档。
信息
分类
AI与计算