基于 Model Context Protocol (MCP) 的服务器实现,向大语言模型客户端提供标准化的上下文服务与能力,包括资源管理、工具注册/执行以及提示模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 HTTP/HTTPS、stdio),具备会话管理、能力声明与可扩展的后端架构。
基于 MCP 的后端服务器实现,提供资源、工具、提示模板等标准化上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(stdio、HTTP、SSE、WebSocket 等)。
基于 Model Context Protocol (MCP) 的服务器实现,作为后端后端上下文服务提供者,托管资源、注册与执行工具、定义与渲染 prompts,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多传输协议,面向 Claude Code 生态的可扩展上下文服务框架。
基于模型上下文协议(MCP)的后端服务,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并具备策略执行、审计追踪与多传输协议支持的 MCP 服务器实现。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输模式,面向高安全性、可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 Claude 等 LLM 客户端以标准化方式提供 Nextcloud 的资源数据、可注册执行的 Tools,以及 Prompt 模板等上下文服务,并通过 JSON-RPC 及多种传输形式(stdio、HTTP)进行通信与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、提示模板渲染等能力,并通过 JSON-RPC(以 MCP 为核心)与客户端通信,支持通过 STDIO 传输的 MCP 后端服务。
基于 Model Context Protocol (MCP) 的后端服务,按标准化方式向 LLM 客户端提供资源、工具与 Prompt 模板,并通过 JSON-RPC 进行通信,支持多传输协议与会话管理,适用于以上下文驱动的 AI 应用场景。
基于 Model Context Protocol(MCP)的后端服务器,提供资源、工具与 Prompt 的标准化管理与 JSON-RPC 通信,以支持 LLM 客户端按阶段获取上下文、执行计划、验证以及工作流渲染等能力。
基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、提示模板渲染等能力,并通过 HTTP/WebSocket/OpenAPI 等协议对外暴露接口,支持与其他 MCP 客户端/服务器的对接与多模型协作。
基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具和提示模板的托管、注册与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理与多种传输协议。
基于 Model Context Protocol (MCP) 的后端服务集合,提供资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持 JSON-RPC 风格通信和 STDIO/WebSocket 等传输协议,用于向 LLM 客户端暴露上下文、工具和资源等能力。
基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供资源数据、工具执行能力和 Prompt 模板渲染等上下文服务,支持通过标准化的 JSON-RPC 方式交互,并可通过 STDIO、SSE/HTTP 等传输协议进行通信与会话管理。
基于 Model Context Protocol 的后端服务器实现,向大型语言模型客户端提供 Google Workspace 的资源、工具和 Prompt 模板,支持多服务整合、认证管理与可扩展的上下文服务。
一个基于 Model Context Protocol 的服务器实现,向大语言模型提供 Appwrite API 的资源、工具与提示模板,并通过 JSON-RPC 进行通信,作为 MCP 后端服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与 MCP 客户端通信,支持对 AI 安全相关工具、治理验证、合规报告、MLBOM 等功能的上下文服务。
基于 Model Context Protocol(MCP)的服务器端实现示例集合,展示如何暴露工具、资源与 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,涵盖多种 MCP 服务端实现与用法,适合作为后端上下文服务的参考实现。