找到 9 个结果
Descope AI 仓库提供了一系列基于 Model Context Protocol (MCP) 的服务器端实现示例,支持多种语言和框架,集成认证并提供可调用的工具,为 LLM 客户端提供丰富的上下文服务。
整合火山引擎ImageX服务的MCP服务器,为大模型提供图片上传、处理、分发及查询等上下文能力。
腾讯云COS MCP Server作为LLM的后端,提供文件存储、处理及多媒体AI能力,无需编码即可快速接入腾讯云COS和数据万象服务。
基于MCP协议的图像压缩微服务,提供多种图片格式的高效压缩能力,优化网站和应用资源。
一个基于 Model Context Protocol 的 MCP 服务器,提供图片尺寸获取和压缩工具,支持 URL 和本地文件。
Zipic MCP Server 是一个 MCP 服务器,通过 Zipic 应用为 LLM 提供图像压缩和优化功能。
WebPerfect MCP Server是一个智能图像处理服务,通过MCP协议提供批量图片优化功能,包括降噪、自动调色阶、锐化、调整尺寸和WebP转换等。
MCP Fetch 是一个 MCP 服务器,用于从互联网抓取网页内容和处理图片,为 LLM 应用提供网页信息获取能力。
MCP Fetch服务器是一个用于Claude等LLM客户端的网络内容抓取工具,可以将网页内容转换为Markdown格式,并处理图片以便粘贴到客户端。