基于 Model Context Protocol 的 MCP 服务器实现,提供 Sketch 文件的资源管理、工具执行与实时上下文服务,支持 WebSocket、SSE 和 HTTP 端点,便于将 Sketch 设计数据与 LLM 客户端(如 Cursor/IDE 插件)进行交互。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的管理、提示模板的渲染,以及通过 WebSocket 与 MCP 客户端进行 JSON-RPC 风格的交互,支持 OpenCode 等客户端的上下文与采样流程。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管与管理、注册与执行工具、以及 Prompt 模板的定义与渲染,面向大型语言模型(LLM)客户端,通过 JSON-RPC 与客户端通信,并支持会话管理、能力声明以及多种传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。
基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文、资源、工具与提示模板,并通过 JSON-RPC/WebSocket 实现 MCP 通信与扩展能力,支持会话管理、权限控制与多传输协议接入。
一个将 LangChain 代理与 MCP 服务器整合的后端平台,包含可运行的 MCP 服务器示例(Mock),用于向大模型客户端提供资源、工具和提示模板等上下文信息,并提供完整的服务端框架以注册、管理 MCP 服务器和工具权限,支持实时通信与安全认证等能力。
一个基于MCP协议的服务器,通过SSE和Streamable HTTP提供GitHub API的上下文和功能,赋能LLM与GitHub交互。
基于AWS Lambda的MCP服务器实现,通过Server-Sent Events (SSE) 提供实时的上下文服务,支持工具、资源和Prompt管理。
基于LangChain4j和Spring Boot实现的MCP服务器,提供工具服务和SSE实时通信。
fastify-mcp 是一个 Fastify 插件,用于快速构建基于 SSE 传输的 Model Context Protocol (MCP) 服务器,简化 Fastify 应用与 MCP 的集成。
该仓库是基于Server-Sent Events (SSE) 的MCP服务器示例实现,旨在Netlify Edge Functions上部署,提供资源、工具和Prompt管理等核心MCP功能。