← 返回首页

"容器化部署"标签的搜索结果

找到 12 个结果

PMOVES-BoTZ Docling-MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供文档处理资源、工具注册与执行、以及 Prompt/模板的上下文服务,支持通过 STDIO、HTTP/SSE 等传输协议与 LLM 客户端进行 JSON-RPC 通信,并具备健康检查、会话管理与多传输能力的后端服务框架。

Multi-Cloud DevOps MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理工具与远程执行能力,面向 LLM 客户端通过 JSON-RPC 进行交互,提供跨云(AWS、Azure、Hetzner Cloud)资源访问与命令执行能力的服务器实现。

Agentic-Ray MCP 服务端实现

基于 Ray Serve 的 MCP(模型上下文协议)服务端实现,提供注册、管理与暴露 MCP 服务器的能力,并通过 HTTP/JSON-RPC 风格接口与客户端进行资源读取、工具调用与请求渲染等交互,同时支持通过侧车代理实现对外部 MCP 服务器的访问控制与转发。

Mackerel MCP服务器

基于 Model Context Protocol 的 MCP 服务器,提供资源、工具与提示模板的后端服务,通过 JSON-RPC 与 MCP 客户端通信,内置对 Mackerel API 的多工具封装,支持多传输通道(如标准输入输出、SSE、WebSocket)以向大语言模型客户端提供可扩展的上下文服务。

Deepeval MCP Bridge

将 deepeval-wrapper 的评估逻辑通过 MCP 接口暴露为 FastAPI 服务,提供对 MCP 客户端的标准化上下文评估能力与对 wrapper 的直接访问能力。

CyberChef MCP 服务器

基于模型上下文协议(MCP)的后端服务器,将 CyberChef 的海量数据处理操作和工具暴露给对话式AI客户端,支持资源管理、工具注册与执行,以及可定制的提示模板渲染,且通过 JSON-RPC 与客户端通信,覆盖多种传输方式(STDIO、HTTP、SSE、WebSocket),帮助生成式AI在执行数据处理任务时获得稳定、可扩展的上下文服务。

pty-mcp-server

基于 Haskell 的 Model Context Protocol 服务器实现,提供 PTY 会话托管、工具执行与提示渲染等能力,通过标准输入输出与客户端进行 JSON-RPC 通信,支持 AI 驱动的系统交互、自动化与远程操作场景。

模板化 MCP 服务器集合

一个面向大型语言模型的 MCP 服务器模板仓库,提供多达17种独立的 MCP 服务器及底层核心组件,支持资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端进行通信,适合本地自托管和容器化部署。

MCPCAN MCP Server Platform

基于 Model Context Protocol(MCP)的后端服务器合集,提供 MCP 服务的资源管理、工具/客户端对接、模板/提示等能力,支持多协议交互与容器化部署,用于向 LLM 客户端提供统一的上下文和外部功能调用能力。

Apollo运行时MCP服务器

提供一个可容器化部署的MCP服务器,用于向LLM客户端提供GraphQL API作为上下文和工具。

AWS ECS 无状态 MCP 服务器示例

基于AWS ECS Fargate的无状态MCP服务器示例实现,用于托管工具和提供上下文服务。

FastMCP示例服务器

基于FastMCP框架实现的简单MCP服务器示例,提供一个hello_world工具,演示基本的MCP客户端-服务器交互。