基于 Model Context Protocol (MCP) 的后端服务,提供对 OMOP CDM 数据库的资源、工具与 Prompt 的标准化暴露,并通过 JSON-RPC/TCP/HTTP 等传输方式与 LLM 客户端进行交互。该实现包含服务器端工具、提示、示例查询及 SQL 执行能力,支持本地 Stdio 以及 HTTP 传输。
基于 Model Context Protocol 的多 MCP 服务器后端网关,提供统一的 JSON-RPC 服务来托管资源、注册工具并渲染提示模板,通过 FastAPI 将多个独立 MCP 服务器整合为一个可扩展的上下文服务入口。
基于 Model Context Protocol (MCP) 的观测型后端代理,作为 MCP 客户端与服务器之间的透明中间件,实现对 JSON-RPC 请求/响应的零拷贝透传,同时提供实时可视化、历史日志与可选的审计签名能力,帮助开发者在不干预执行的前提下对工具链进行观测和回放。
基于模型上下文协议(Model Context Protocol,MCP)的后端示例,封装 Shirtify 代理并通过send_message工具向MCP客户端提供上下文对话能力与外部功能调用,支持 SSE/streamable_http 等传输模式的JSON-RPC风格交互。
基于 Model Context Protocol (MCP) 的可信服务端实现,提供资源、工具注册与执行、以及提示模板渲染等核心能力,支持端到端安全传输并可通过多种传输方式与客户端对话。该实现包含服务器逻辑、信任机制整合、以及面向 MCP 客户端的安全传输客户端接口。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,并支持多传输协议(如 WebSocket、MQTT/UDP 等)通过 JSON-RPC 与客户端通信,面向边缘设备和物联网场景的上下文服务解决方案。
基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。
基于 Model Context Protocol 的 MCP 后端服务器,实现资源与工具的管理,并通过 JSON-RPC 接口与 LLM 客户端进行交互,支持多工具与内容生成功能。
基于模型上下文协议(MCP)的服务器实现,向LLM客户端提供ATLAS Central Page的资源、工具与提示模板的统一访问接口,支持JSON-RPC风格请求/响应,以及多传输模式(如STDIO、HTTP)以服务化LLM上下文信息和能力查询。
基于 Model Context Protocol 的 MCP 服务器,使用 Spring Boot 实现,提供 MonicaHQ CRM 数据的资源访问、工具调用及内容渲染,支持 STDIO 与 WebSocket/HTTP 等传输模式,面向大语言模型客户端(如 Claude Desktop)提供标准化的上下文服务。该服务器实现了资源管理、工具注册与执行,以及提示模板渲染等核心能力,以 JSON-RPC 2.0 进行通信。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的标准化管理与执行,并通过 JSON-RPC 与客户端进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket/HTTP)以实现对本地资源、外部能力和交互场景的可扩展上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器,向 MCP 客户端提供标准化的资源访问、工具执行和 Prompt 模板渲染等能力,支持多传输协议和会话管理,适配 Claude Desktop 等 MCP 客户端的上下文服务需求。
基于 Model Context Protocol (MCP) 的后端服务,提供将结构化数据转换为 TOON 格式以实现显著的令牌节省,并对接 Claude Code 插件与 MCP 客户端,暴露工具调用与资源访问能力,支持通过标准输入输出(stdio)进行通信与会话管理,同时内部集成本地统计指标。
基于 Model Context Protocol 的 MCP 服务器端实现,提供资源、工具与示例性提示模板等能力,支持通过 JSON-RPC 与客户端通信,且实现了通过不同传输协议(如 SSE/HTTP)进行交互的服务器端逻辑。
基于 Model Context Protocol (MCP) 的后端治理与资源/工具/提示模板管理服务器,面向 LLM 客户端提供标准化的上下文数据、可注册/执行的工具集以及可渲染的 Prompt 模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并具备扩展传输协议(如 STDIO、SSE、WebSocket)的能力,为 LLM 应用提供安全、可审计的上下文服务框架。
Snowgoose仓库内包含的一个基于Model Context Protocol (MCP) 的简单时间工具服务器实现。
基于Spring AI框架构建的MCP服务器,提供资源、工具和Prompt模板管理,并通过SSE实现与LLM客户端的通信。
基于 RESTful API 的 MCP 服务器传输层实现,支持通过 HTTP 协议接收和发送 MCP 消息。
为AWS Lambda函数提供MCP服务器基础设施,支持SSE协议,简化LLM应用在AWS环境中的上下文服务构建。
为 EventCatalog 提供 MCP 接口,支持 Claude、Cursor 等 MCP 客户端访问 EventCatalog 的架构文档和信息。
Image Generation MCP Server是一个基于Model Context Protocol的后端应用,允许LLM客户端通过调用工具生成图像,并支持配置图像参数和保存路径。