一个基于 Model Context Protocol (MCP) 的服务器实现与示例集合,包含使用 FastMCP 的 Python 版本服务器、SSE 与 Streamable HTTP 传输模式,以及用于注册工具、提示、资源等组件的示例脚本,支持通过 JSON-RPC 与客户端进行资源访问、工具调用、提示获取等上下文服务的交互,适合对接 LLM 客户端进行 MCP 服务端能力测试、扩展与演示。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 SQLite 数据库的资源、工具与提示的标准化上下文服务,支持原生与 WASM 两种后端、OAuth 2.1 身份认证、JSON-RPC 通信以及 HTTP/SSE/stdio 等传输方式,面向 LLM 客户端进行可扩展的上下文与功能托管。
基于 Model Context Protocol(MCP)的后端服务器实现,提供对 Binary Ninja 数据库的 SQL 查询、自然语言查询与外部工具调用能力,并通过 MCP/SSE 与 LLM 客户端进行标准化通信,作为上下文与功能服务入口。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供 MCP 的核心能力:注册并执行工具(Tools)、托管资源与数据,以及通过 JSON-RPC 风格的交互向 LLM 客户端提供上下文与功能,支持多传输协议(stdio 与 HTTP/SSE)以便与不同的 AI 客户端对接。项目中包含可运行的 MCP 服务器代码和 HTTP/SSE 传输实现,适合作为对接大模型代理的后端服务。
基于 Model Context Protocol (MCP) 的后端实现,向大模型客户端提供资源、工具、Prompts 等上下文服务,并通过 JSON-RPC/SSE/HTTP 协议进行通信与协作。该仓库实现了 MCP 服务端核心逻辑、工具注册、知识查询等能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具、Prompt 模板等上下文能力的托管与管理,并通过 JSON-RPC 风格的 MCP 协议对接 LLM 客户端。实现了对 MCP 请求/响应的处理、传输协议支持(SSE/HTTP proxy、STDIO 启动模式等)、以及与网关、权限、鉴权和模块化插件体系的协同运行,定位于为 LLM 应用提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册、资源管理、提示模板渲染等能力,并通过 SSE 传输实现与 MCP 客户端的通信,用于在 LLM 客户端侧获取上下文、执行工具与获取 Prompts。
基于.NET Aspire构建的eShopLite MCP服务器,提供商品搜索、在线研究和天气查询等工具,并通过SSE协议与客户端通信。
基于Spring AI框架构建的MCP服务器,提供资源、工具和Prompt模板管理,并通过SSE实现与LLM客户端的通信。
基于Spring AI和Redis实现的MCP服务器,通过SSE协议提供Redis数据管理工具,方便LLM应用集成和操作Redis数据库。
基于Model Context Protocol (MCP) 和 Server-Sent Events (SSE) 实现的 HackerNews 工具服务器,提供 HackerNews Top Stories 查询功能。
基于Spring MVC和SSE实现的MCP服务器,支持通过JSON-RPC协议与LLM客户端进行上下文信息和功能交互。
一个演示性质的MCP服务器,通过SSE协议提供BMI计算和加法计算工具,可与Github Copilot和Copilot Studio集成。
演示如何使用Model Context Protocol (MCP) 构建可扩展的AI应用后端,包含TypeScript和Python MCP服务器示例,支持STDIO和SSE传输协议,并集成LangGraph。
基于FastMCP的serverless多租户扩展实现,专为Vercel设计,利用Redis持久化会话状态,并支持SSE实时通信。
Emmett MCP 是一个用于构建 Model Context Protocol (MCP) 服务器的 Emmett 框架扩展,支持 SSE 传输协议,为 LLM 客户端提供上下文信息和工具能力。
PlaywrightをMCPプロトコルで提供するサーバーです。LLMクライアントからPlaywrightのブラウザ自動化機能を安全かつ標準的に利用できます。
基于 Azure 函数和 API 管理构建的远程 MCP 服务器,提供工具注册、执行和安全访问控制能力。
基于Spring Cloud Gateway构建的MCP服务器示例,提供资源管理、工具注册和Prompt模板定义等核心功能,用于连接LLM客户端与后端服务。
基于AWS Lambda的MCP服务器实现,通过Server-Sent Events (SSE) 提供实时的上下文服务,支持工具、资源和Prompt管理。
演示如何使用 Entra ID 认证和 HTTP+SSE 传输协议实现 MCP 服务器,提供调用 Microsoft Graph 获取用户信息的工具。
基于 TypeScript 和 Azure Developer CLI 的 MCP 服务器示例,提供资源、工具和 Prompt 管理功能,并通过 SSE 协议与客户端通信。
基于Cloudflare Workers构建的远程MCP服务器示例,演示了如何使用OAuth进行身份验证并提供工具功能。
mcpport是一个轻量级的MCP网关和注册中心,旨在为AI应用提供标准化的连接能力,充当LLM客户端和后端MCP服务器之间的桥梁。
轻量级 Javascript MCP 服务器及客户端 SDK,专注于 SSE 传输,简化 AI Agent 上下文服务搭建。
一个C# .NET教程项目,演示了如何使用SSE和STDIO实现一个基础的MCP服务器,用于产品分类任务。
基于Springboot框架搭建的MCP服务器模板项目,支持STDIO和SSE模式,方便开发者快速构建和测试MCP后端服务。
基于Cloudflare Workers实现的演示版MCP服务器,包含资源、工具管理和OAuth认证功能。
基于Cloudflare Workers和Stytch的TODO应用MCP服务器,提供资源管理和工具调用能力,扩展传统应用以支持AI Agent。
在Google Cloud Run上托管的MCP服务器,通过SSE协议提供天气查询工具,并使用IAM进行身份验证。
基于Nginx和FastAPI的高性能MCP服务器,支持WebSocket/SSE协议,集成OpenAPI,用于构建实时LLM应用。
基于Model Context Protocol和Server-Sent Events的MQTT操作服务器,为LLM应用提供MQTT消息代理的桥梁。
基于 TypeScript 的 MCP 服务器快速启动模板,预置工具和 Prompt 示例,方便开发者快速搭建 MCP 后端服务。
Atoma SDK 仓库不仅提供Typescript SDK,还能作为MCP服务器运行,为AI应用提供模型访问和工具调用能力。
Authed MCP服务器集成方案,为AI Agent提供安全认证的Model Context Protocol服务。
一个基于WebSocket和SSE实现的轻量级服务器,用于演示多Agent之间的消息传递和功能调用,虽非完全符合MCP标准,但展示了其核心思想。
该仓库是基于Server-Sent Events (SSE) 的MCP服务器示例实现,旨在Netlify Edge Functions上部署,提供资源、工具和Prompt管理等核心MCP功能。
WASImancer是一个基于Node.js开发的MCP服务器,创新性地使用WebAssembly插件扩展工具功能,提供高性能和安全的上下文服务。
Offeryn是一个Rust实现的Model Context Protocol (MCP) 服务器,专注于通过工具扩展大型语言模型的能力,支持JSON-RPC over Stdio和SSE传输协议。
acehoss_mcp-gateway 是一个灵活的网关服务器,用于将基于 STDIO 的 MCP 服务器桥接到 HTTP+SSE 和 REST API,从而实现对 MCP 服务器的远程访问和管理。
该仓库提供了一个基于Node.js的最小化MCP服务器实现,用于上下文管理和工具执行,并包含一个集成了Langchain和Ollama的客户端示例。
HackerNews API MCP服务器是一个简单的后端应用,它通过工具向LLM客户端提供Hacker News的数据访问能力,并包含一个Prompt模板用于故事信息查询。
基于 Clojure 实现的 MCP 服务器,通过 SSE 协议暴露 Clojure REPL 功能,为 LLM 客户端提供代码执行和上下文服务。