使用说明

项目简介

本项目 'spring-ai-apps' 中的 'mcp-ollama-server' 模块是一个基于 Spring AI 框架构建的 Model Context Protocol (MCP) 服务器示例。它专注于演示如何通过 MCP 协议向 LLM 客户端提供文本摘要工具服务。

主要功能点

  • 提供文本摘要工具 (summarize):通过 MCP 协议注册并暴露 'summarize' 工具,允许客户端调用此工具对指定的文本进行摘要。
  • 基于 Spring AI 和 Ollama:利用 Spring AI 框架简化 AI 应用开发,并集成 Ollama 作为默认的 LLM 模型运行时。
  • SSE 传输协议:使用 Server-Sent Events (SSE) 作为 MCP 服务器的传输协议,实现与客户端的实时通信。

安装步骤

  1. 环境准备

    • 确保已安装 JavaMavenGradle 构建工具。
    • 安装 Ollama 并确保 Ollama 服务已运行。本项目默认使用 Ollama 模型,请根据需要配置或下载模型(例如 'QWEN_2_5_7B')。
  2. 获取代码

    • 克隆 GitHub 仓库 'https://github.com/Mark7766/spring-ai-apps' 到本地。
  3. 进入服务器目录

    • 在本地仓库中,导航到 'mcp-ollama/mcp-ollama-server' 目录。
  4. 启动服务器

    • 使用 Maven 构建并运行:在 'mcp-ollama-server' 目录下执行命令 'mvn spring-boot:run'。
    • 或者使用 Gradle 构建并运行:在 'mcp-ollama-server' 目录下执行命令 './gradlew bootRun'。
    • 服务器默认运行在 'http://localhost:8091'。

服务器配置

MCP 服务器是一个标准的 Spring Boot 应用程序,无需额外的启动命令或参数配置

对于 MCP 客户端,您需要配置连接到此服务器的地址。默认情况下,客户端应配置连接到 'http://localhost:8091'。

MCP 客户端配置示例 (JSON 格式)

{
  "serverName": "mcp-ollama-server",
  "transport": "sse",
  "baseUrl": "http://localhost:8091"
}

配置说明

  • 'serverName': 服务器名称,可自定义。
  • 'transport': 传输协议,本项目使用 'sse' (Server-Sent Events)。
  • 'baseUrl': MCP 服务器的根 URL 地址,默认为 'http://localhost:8091'。

基本使用方法

  1. 启动 MCP 服务器:按照安装步骤启动 'mcp-ollama-server'。
  2. 配置 MCP 客户端:在您的 MCP 客户端应用中,配置服务器连接信息,指向运行中的 'mcp-ollama-server'。
  3. 调用摘要工具:客户端可以通过 MCP 协议发送 'CallToolRequest' 请求来调用服务器提供的 'summarize' 工具。请求需要包含工具名称 ('summarize') 和参数 ('text',即需要摘要的文本内容)。
  4. 获取摘要结果:服务器处理请求后,将通过 MCP 响应返回摘要结果。客户端接收并解析响应,即可获得文本摘要。

简易测试: 您可以使用 'mcp-ollama-client' 作为客户端进行测试。'mcp-ollama-client' 提供了简单的 Web 界面,允许您输入文本并调用 'summarize' 工具来获取摘要。请参考 'mcp-ollama/mcp-ollama-client' 模块的 README 文件了解客户端的运行和使用方法。

信息

分类

AI与计算