使用说明

项目简介

Ollama MCP Server 是一个基于 Model Context Protocol (MCP) 构建的应用后端,旨在为兼容 MCP 协议的客户端(例如 Claude Desktop)提供本地 Ollama 大语言模型服务的桥梁。通过此服务器,MCP 客户端可以便捷地发现、管理和使用本地 Ollama 提供的模型资源。

主要功能点

  • 模型发现与管理:列出本地 Ollama 中已安装的模型,并支持从 Ollama Hub 拉取新的模型到本地。
  • 模型信息查询:获取本地模型的详细信息,例如模型参数、大小等。
  • 聊天对话:通过 Ollama 的聊天 API,允许 MCP 客户端与本地模型进行对话交互。
  • 端口管理:自动处理端口分配,并允许用户通过环境变量自定义端口。
  • 配置灵活:支持通过环境变量配置 Ollama API 的地址,适应不同的 Ollama 服务部署环境。

安装步骤

  1. 环境准备:确保您的系统已安装 Node.js (v16 或更高版本)、npm 包管理器,并且已经安装并运行了 Ollama 本地服务。
  2. 全局安装 Ollama MCP Server:打开终端,运行以下 npm 命令进行全局安装:
    npm install -g @rawveg/ollama-mcp

服务器配置

对于需要连接 MCP 服务器的客户端应用(如 Claude Desktop),您需要在应用的 MCP 设置文件中添加 Ollama MCP Server 的配置信息。以下是一个典型的配置示例,您需要将此配置添加到客户端应用的 MCP 设置文件中。

{
  "mcpServers": {
    "@rawveg/ollama-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "@rawveg/ollama-mcp"
      ]
    }
  }
}

配置参数说明

  • '"@rawveg/ollama-mcp"': 服务器名称,用于在 MCP 客户端中标识和引用。
  • '"command": "npx"': 启动服务器的命令,这里使用 'npx' 来执行本地安装的 npm 包。
  • '"args": ["-y", "@rawveg/ollama-mcp"]': 传递给 'npx' 命令的参数,用于执行 '@rawveg/ollama-mcp' 包。

注意

  • 不同的 MCP 客户端应用的 MCP 配置文件位置可能不同。例如,Claude Desktop 的配置文件通常是 'claude_desktop_config.json',Cline 的配置文件是 'cline_mcp_settings.json'。请参考您的 MCP 客户端应用的文档来确定正确的配置文件位置。

基本使用方法

  1. 启动服务器:在终端中运行以下命令启动 Ollama MCP Server:
    ollama-mcp
    服务器默认会在 3456 端口启动。您可以通过设置 'PORT' 环境变量来指定不同的端口,例如:
    PORT=3457 ollama-mcp
  2. 配置 MCP 客户端:根据上述“服务器配置”部分,在您的 MCP 客户端应用中配置 Ollama MCP Server。
  3. 连接和使用:启动您的 MCP 客户端应用,它应该能够自动连接到 Ollama MCP Server,并允许您在客户端应用中使用本地 Ollama 模型进行各种操作,例如模型选择、聊天等。

环境变量

  • 'PORT': 指定服务器监听的端口号,默认为 '3456'。
  • 'OLLAMA_API': 指定 Ollama API 的端点地址,默认为 'http://localhost:11434'。当您的 Ollama 服务不在本地默认地址运行时,可以通过此变量进行配置。

信息

分类

AI与计算