使用说明
项目简介
Ollama MCP Server 是一个基于 Model Context Protocol (MCP) 构建的应用后端,旨在为兼容 MCP 协议的客户端(例如 Claude Desktop)提供本地 Ollama 大语言模型服务的桥梁。通过此服务器,MCP 客户端可以便捷地发现、管理和使用本地 Ollama 提供的模型资源。
主要功能点
- 模型发现与管理:列出本地 Ollama 中已安装的模型,并支持从 Ollama Hub 拉取新的模型到本地。
- 模型信息查询:获取本地模型的详细信息,例如模型参数、大小等。
- 聊天对话:通过 Ollama 的聊天 API,允许 MCP 客户端与本地模型进行对话交互。
- 端口管理:自动处理端口分配,并允许用户通过环境变量自定义端口。
- 配置灵活:支持通过环境变量配置 Ollama API 的地址,适应不同的 Ollama 服务部署环境。
安装步骤
- 环境准备:确保您的系统已安装 Node.js (v16 或更高版本)、npm 包管理器,并且已经安装并运行了 Ollama 本地服务。
- 全局安装 Ollama MCP Server:打开终端,运行以下 npm 命令进行全局安装:
npm install -g @rawveg/ollama-mcp
服务器配置
对于需要连接 MCP 服务器的客户端应用(如 Claude Desktop),您需要在应用的 MCP 设置文件中添加 Ollama MCP Server 的配置信息。以下是一个典型的配置示例,您需要将此配置添加到客户端应用的 MCP 设置文件中。
{ "mcpServers": { "@rawveg/ollama-mcp": { "command": "npx", "args": [ "-y", "@rawveg/ollama-mcp" ] } } }
配置参数说明:
- '"@rawveg/ollama-mcp"': 服务器名称,用于在 MCP 客户端中标识和引用。
- '"command": "npx"': 启动服务器的命令,这里使用 'npx' 来执行本地安装的 npm 包。
- '"args": ["-y", "@rawveg/ollama-mcp"]': 传递给 'npx' 命令的参数,用于执行 '@rawveg/ollama-mcp' 包。
注意:
- 不同的 MCP 客户端应用的 MCP 配置文件位置可能不同。例如,Claude Desktop 的配置文件通常是 'claude_desktop_config.json',Cline 的配置文件是 'cline_mcp_settings.json'。请参考您的 MCP 客户端应用的文档来确定正确的配置文件位置。
基本使用方法
- 启动服务器:在终端中运行以下命令启动 Ollama MCP Server:
服务器默认会在 3456 端口启动。您可以通过设置 'PORT' 环境变量来指定不同的端口,例如:ollama-mcpPORT=3457 ollama-mcp - 配置 MCP 客户端:根据上述“服务器配置”部分,在您的 MCP 客户端应用中配置 Ollama MCP Server。
- 连接和使用:启动您的 MCP 客户端应用,它应该能够自动连接到 Ollama MCP Server,并允许您在客户端应用中使用本地 Ollama 模型进行各种操作,例如模型选择、聊天等。
环境变量
- 'PORT': 指定服务器监听的端口号,默认为 '3456'。
- 'OLLAMA_API': 指定 Ollama API 的端点地址,默认为 'http://localhost:11434'。当您的 Ollama 服务不在本地默认地址运行时,可以通过此变量进行配置。
信息
分类
AI与计算