基于 Model Context Protocol 的 MCP 服务器,提供资源、工具与提示模板的后端服务,通过 JSON-RPC 与 MCP 客户端通信,内置对 Mackerel API 的多工具封装,支持多传输通道(如标准输入输出、SSE、WebSocket)以向大语言模型客户端提供可扩展的上下文服务。
将 deepeval-wrapper 的评估逻辑通过 MCP 接口暴露为 FastAPI 服务,提供对 MCP 客户端的标准化上下文评估能力与对 wrapper 的直接访问能力。
基于模型上下文协议(MCP)的后端服务器,将 CyberChef 的海量数据处理操作和工具暴露给对话式AI客户端,支持资源管理、工具注册与执行,以及可定制的提示模板渲染,且通过 JSON-RPC 与客户端通信,覆盖多种传输方式(STDIO、HTTP、SSE、WebSocket),帮助生成式AI在执行数据处理任务时获得稳定、可扩展的上下文服务。
基于AWS ECS Fargate的无状态MCP服务器示例实现,用于托管工具和提供上下文服务。