一个基于 Model Context Protocol (MCP) 的后端服务,加载内置与外部 SOP,将它们作为可调用的提示注册,通过 FastMCP 提供 JSON-RPC 服务供 MCP 客户端访问,用于向大型语言模型提供结构化上下文和功能性提示。
基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Azure Logic Apps 的资源、工具与工作流定义的标准化访问,使用 JSON-RPC 进行请求/响应,并通过标准的 Stdio 传输实现本地集成与扩展能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。
基于 Model Context Protocol(MCP)的服务器端实现示例集合,展示如何暴露工具、资源与 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,涵盖多种 MCP 服务端实现与用法,适合作为后端上下文服务的参考实现。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,并支持多传输协议(如 WebSocket、MQTT/UDP 等)通过 JSON-RPC 与客户端通信,面向边缘设备和物联网场景的上下文服务解决方案。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,支持 stdio、HTTP、SSE 等传输,并通过 JSON-RPC 与客户端进行消息交互,具备会话管理、能力声明及多传输协议支持等能力。
基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。
基于 Model Context Protocol 的 MCP 后端服务器,实现资源与工具的管理,并通过 JSON-RPC 接口与 LLM 客户端进行交互,支持多工具与内容生成功能。
基于模型上下文协议(MCP)的服务器实现,向LLM客户端提供ATLAS Central Page的资源、工具与提示模板的统一访问接口,支持JSON-RPC风格请求/响应,以及多传输模式(如STDIO、HTTP)以服务化LLM上下文信息和能力查询。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具、Prompt 的托管、读取和渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议以提供安全、可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。
基于 Model Context Protocol(MCP) 的后端服务,作为本地大模型应用的上下文提供者。该服务器托管与管理 Resources(数据资源)、Tools(可注册并供 LLM 调用的外部功能)以及 Prompts(Prompt 模板渲染),通过 JSON-RPC 与客户端通信,完成会话管理、能力声明以及跨传输协议(如 Stdio、SSE、WebSocket)的上下文服务,方便编辑器、IDE 以及本地模型进行组合式推理与扩展。仓库中明确包含 MCP 集成组件、启动脚本及相关文档,具备对 MCP 客户端的完整支持能力。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,面向 Claude Code 等 LLM 客户端提供标准化的上下文与功能服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染等能力,并通过 JSON-RPC 风格接口向 LLM 客户端暴露上下文与功能。服务器支持多种传输形式(HTTP)、会话管理、能力声明,以及可拓展的工具与资源生态,提升大模型在编码协作中的上下文服务能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。
基于 Model Context Protocol(MCP)的服务器实现,用于向 LLM 客户端以标准化方式暴露资源、工具以及 Prompt 模板等上下文服务,支持通过多种传输协议与客户端通信,负责会话管理与能力声明,并可与 LangGraph 生态整合进行工具发现与执行。
基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。
基于 Model Context Protocol (MCP) 的多模型上下文服务后端,向 LLM 客户端提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持会话管理并兼容多种传输协议(STDIO/SSE/WebSocket),为 AI 应用提供可扩展、安全的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 的定义/渲染,支持通过多种传输方式进行 JSON-RPC 通信,供 LLM 客户端以标准化方式获取上下文、调用外部工具并渲染对话模板。
将 Fess 转换为基于 MCP 的服务器,提供 JSON-RPC 2.0 的接口,用于资源、工具、提示等的管理与调用
基于 WeKnora 的 MCP(Model Context Protocol)服务器实现,向大模型客户端提供标准化的资源、工具与提示模板的上下文服务,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,用于实现安全、可扩展的上下文环境。该服务器通过 JSON-RPC 与客户端进行通信,承载资源访问、工具注册/执行与提示渲染等核心能力。典型场景包括对接外部知识库、执行工具调用、以及渲染与提供定制化的 Prompt 模板。
基于 Fred 平台的 MCP 服务器实现,提供以标准化方式向大语言模型客户端提供资源、工具、提示模板等上下文与能力的后端服务,并通过 JSON-RPC/多传输通道进行通信。包含知识流后端的完整 MCP 服务、以及用于快速演示的最小 MCP 服务器示例和相应部署示例。
基于 Model Context Protocol(MCP)的后端服务器,用于通过标准化的 JSON-RPC 与客户端交互,提供对 YouTube 资源的托管和访问、工具执行以及 Prompt 模板渲染等功能。
基于 Model Context Protocol (MCP) 的后端示例服务器,提供资源注册、提示渲染,以及多传输(HTTP/STDIO)支持,便于与 MCP 客户端对接与集成。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具调用以及资源渲染的服务端能力,并通过 JSON-RPC/ SSE 方式与客户端通信,支持多会话与会话管理,适用于在后端向 LLM 客户端提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。
基于 Model Context Protocol 构建的 MCP 服务器实现集合,提供资源与工具的托管、Prompt 定义及渲染能力,并通过 JSON-RPC 与客户端通信,支持多入口输出、浏览器扩展场景,以及跨进程/跨页面的上下文服务能力。
基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*
基于 Model Context Protocol (MCP) 的服务端实现,使用 SSE 传输,提供资源与资源模板的托管、工具注册与执行,以及嵌入式 Widget 的渲染能力,作为 ChatGPT 应用的上下文与功能后端。
基于 Model Context Protocol (MCP) 的后端服务端实现,作为 MCP 服务器向大语言模型客户端提供标准化的资源管理、工具注册/执行以及 Prompt 模板渲染等能力,使用 JSON-RPC 进行通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)以满足多样化上下文服务需求。
连接LLM客户端至Google Cloud Gemini Cloud Assist API的MCP服务器,实现通过自然语言管理和排查Google Cloud环境。
用于使用流畅接口快速构建 Model Context Protocol (MCP) 服务器的 JavaScript/TypeScript 库。
在Google Apps Script环境中实现模型上下文协议(MCP)服务器,提供基础上下文服务功能。
基于 Model Context Protocol 构建的 MCP 服务器,提供访问 Acurast 资源的接口,并支持脚本部署和处理器信息查询等工具。
连接AI应用与Azure PostgreSQL数据库的MCP服务器,提供数据查询、管理工具及表结构资源访问。
为 Better Auth 应用提供模型上下文协议 (MCP) 服务,管理资源、工具和 Prompt 模板,标准化 LLM 交互。
基于Langchain和NestJS构建的MCP服务器示例,演示了如何使用MCP协议提供上下文信息和工具能力。
Chef CLI 是一个用于 ADaaS 配方开发的命令行工具,同时可以作为 MCP 服务器为 LLM 客户端提供上下文服务。
该项目是一个基于 MCP 协议的服务器,允许 LLM 通过工具调用来管理和操作 Kubernetes 集群资源。
基于MCP协议的Kubernetes AI Agent,通过自然语言操作和管理Kubernetes资源。
基于Spring AI构建的MCP协议演示服务器,提供资源、工具和Prompt模板管理功能。
kom 是一个 Kubernetes 操作工具,同时支持作为 MCP 服务器,提供 Kubernetes 资源管理能力,并可通过 SQL 查询资源。
基于Spring AI框架构建的MCP服务器示例,用于演示如何为LLM应用提供上下文服务,包括资源管理、工具调用和Prompt模板渲染等核心功能。
HoneyHive TypeScript SDK 提供可安装的 Model Context Protocol (MCP) 服务器,将 SDK 方法作为工具暴露给 AI 应用,以管理上下文和功能。
基于Cloudflare Workers和Stytch的TODO应用MCP服务器,提供资源管理和工具调用能力,扩展传统应用以支持AI Agent。
基于 Go 语言实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具注册和 Prompt 模板等核心功能,用于构建 LLM 应用的上下文服务后端。
Kom MCP Server基于Kom Kubernetes操作库,通过Model Context Protocol为LLM客户端提供Kubernetes资源上下文信息和管理工具。
Model Context Protocol (MCP) Python SDK 提供了一套全面的工具,用于构建兼容 MCP 协议的服务器和客户端应用,简化 LLM 应用的上下文管理。
基于FastAPI框架实现的MCP服务器,提供工具、资源和Prompt管理,集成SkySQL API。
mcp-go 是一个用 Go 语言编写的 Model Context Protocol (MCP) 服务器实现,旨在简化 LLM 应用与外部数据源和工具的集成。
Authed MCP服务器集成方案,为AI Agent提供安全认证的Model Context Protocol服务。
mcp.rs 是一个用 Rust 语言实现的高性能 Model Context Protocol (MCP) 服务器,旨在为 AI 应用提供标准化的上下文和资源访问能力。
Agentics Edge Functions提供了一个基于Supabase Serverless平台的Model Context Protocol (MCP) 服务器实现,用于管理AI Agent的资源和工具。
MCP-server-template 是一个用于构建 Model Context Protocol (MCP) 服务器的综合模板,基于 TypeScript/Node.js,提供标准化结构和最佳实践。
ESP32MCPServer是基于 Model Context Protocol 的服务器实现,专为 ESP32 微控制器设计,通过 WebSocket 提供资源管理和实时数据更新服务,适用于连接 LLM 应用。
该Ruby库提供了一个实验性的Model Context Protocol (MCP) 服务器实现,允许开发者使用Ruby构建兼容MCP协议的后端服务。
easy-mcp 是一个使用 TypeScript 开发的 MCP 服务器框架,旨在简化资源、工具和 Prompt 的定义与管理。
kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。
Quarkus MCP Server扩展,简化了基于Quarkus框架构建Model Context Protocol (MCP) 服务器的流程,支持资源、工具和Prompt模板的声明式API。
该项目是一个基础的MCP服务器示例,使用TypeScript SDK实现,演示了如何通过stdio传输协议提供资源列表和读取功能,适用于学习和理解MCP服务器的基本构建。
原型MCP服务器,集成Red Hat Developer Hub,提供访问和查询RHDH目录中资源、API和推理服务器的工具。
Azure MCP是一个MCP服务器,旨在桥接Claude Desktop与Azure云平台,通过自然语言实现Azure资源的管理和查询。
mcp-hfspace 是一个 MCP 服务器,它连接了 Claude Desktop 等 MCP 客户端与 Hugging Face Spaces,使得用户可以通过 Claude 等工具调用 Hugging Face Spaces 上托管的各种模型和服务,例如文生图、语音合成、视觉模型等。