使用说明
项目简介
本项目 'spring-ai-apps' 中的 'mcp-ollama-server' 模块是一个基于 Spring AI 框架构建的 Model Context Protocol (MCP) 服务器示例。它专注于演示如何通过 MCP 协议向 LLM 客户端提供文本摘要工具服务。
主要功能点
- 提供文本摘要工具 (summarize):通过 MCP 协议注册并暴露 'summarize' 工具,允许客户端调用此工具对指定的文本进行摘要。
- 基于 Spring AI 和 Ollama:利用 Spring AI 框架简化 AI 应用开发,并集成 Ollama 作为默认的 LLM 模型运行时。
- SSE 传输协议:使用 Server-Sent Events (SSE) 作为 MCP 服务器的传输协议,实现与客户端的实时通信。
安装步骤
-
环境准备:
-
获取代码:
- 克隆 GitHub 仓库 'https://github.com/Mark7766/spring-ai-apps' 到本地。
-
进入服务器目录:
- 在本地仓库中,导航到 'mcp-ollama/mcp-ollama-server' 目录。
-
启动服务器:
- 使用 Maven 构建并运行:在 'mcp-ollama-server' 目录下执行命令 'mvn spring-boot:run'。
- 或者使用 Gradle 构建并运行:在 'mcp-ollama-server' 目录下执行命令 './gradlew bootRun'。
- 服务器默认运行在 'http://localhost:8091'。
服务器配置
MCP 服务器是一个标准的 Spring Boot 应用程序,无需额外的启动命令或参数配置。
对于 MCP 客户端,您需要配置连接到此服务器的地址。默认情况下,客户端应配置连接到 'http://localhost:8091'。
MCP 客户端配置示例 (JSON 格式):
{ "serverName": "mcp-ollama-server", "transport": "sse", "baseUrl": "http://localhost:8091" }
配置说明:
- 'serverName': 服务器名称,可自定义。
- 'transport': 传输协议,本项目使用 'sse' (Server-Sent Events)。
- 'baseUrl': MCP 服务器的根 URL 地址,默认为 'http://localhost:8091'。
基本使用方法
- 启动 MCP 服务器:按照安装步骤启动 'mcp-ollama-server'。
- 配置 MCP 客户端:在您的 MCP 客户端应用中,配置服务器连接信息,指向运行中的 'mcp-ollama-server'。
- 调用摘要工具:客户端可以通过 MCP 协议发送 'CallToolRequest' 请求来调用服务器提供的 'summarize' 工具。请求需要包含工具名称 ('summarize') 和参数 ('text',即需要摘要的文本内容)。
- 获取摘要结果:服务器处理请求后,将通过 MCP 响应返回摘要结果。客户端接收并解析响应,即可获得文本摘要。
简易测试: 您可以使用 'mcp-ollama-client' 作为客户端进行测试。'mcp-ollama-client' 提供了简单的 Web 界面,允许您输入文本并调用 'summarize' 工具来获取摘要。请参考 'mcp-ollama/mcp-ollama-client' 模块的 README 文件了解客户端的运行和使用方法。
信息
分类
AI与计算