基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文、资源、工具与提示模板,并通过 JSON-RPC/WebSocket 实现 MCP 通信与扩展能力,支持会话管理、权限控制与多传输协议接入。
一个将 LangChain 代理与 MCP 服务器整合的后端平台,包含可运行的 MCP 服务器示例(Mock),用于向大模型客户端提供资源、工具和提示模板等上下文信息,并提供完整的服务端框架以注册、管理 MCP 服务器和工具权限,支持实时通信与安全认证等能力。
一个基于MCP协议的服务器,通过SSE和Streamable HTTP提供GitHub API的上下文和功能,赋能LLM与GitHub交互。
基于AWS Lambda的MCP服务器实现,通过Server-Sent Events (SSE) 提供实时的上下文服务,支持工具、资源和Prompt管理。
基于LangChain4j和Spring Boot实现的MCP服务器,提供工具服务和SSE实时通信。
fastify-mcp 是一个 Fastify 插件,用于快速构建基于 SSE 传输的 Model Context Protocol (MCP) 服务器,简化 Fastify 应用与 MCP 的集成。
该仓库是基于Server-Sent Events (SSE) 的MCP服务器示例实现,旨在Netlify Edge Functions上部署,提供资源、工具和Prompt管理等核心MCP功能。