基于 Model Context Protocol (MCP) 的服务器端实现,Routa 提供完整的 MCP 服务端能力,通过 JSON-RPC/Federated 流式通知向 LLM 客户端暴露资源、工具与提示模板,并支持多工作流的代理协同与会话管理。该仓库不仅包含 MCP 服务端核心逻辑,还实现了与 ACP 生态的深度集成与客户端路由接口。
基于 Model Context Protocol 的 MCP 服务器实现;将 Quorum 的多AI协同推理能力以标准化的 JSON-RPC 服务形式暴露给 MCP 客户端,支持资源/工具/提示模板的管理与渲染,并通过标准化接口与客户端进行通信。
基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型客户端提供统一的资源管理、工具注册与调用,以及可定制的 Prompt 渲染能力;通过 JSON-RPC 2.0 进行通信,支持多种传输协议(如 stdio、SSE、WebSocket),以实现安全、可扩展的上下文服务。
基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持 Claude Code 的多主体协作与扩展能力。
基于模型上下文协议(MCP)的后端实现,提供对 Markdown 内容资源的托管与管理、工具注册与执行,以及可渲染的 Prompt 模板,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用和提示渲染等交互,包含可运行的服务器端代码与完整工具集。
基于 Model Context Protocol (MCP) 的服务器端实现,用于通过 JSON-RPC 提供 AMReXAgent 的资源管理、工具注册/执行以及 Prompt 模板的渲染等上下文服务,并对外提供可扩展的传输方式(如 stdio)。该仓库中实现了一个真实的 MCP 服务器入口、工具注册、请求分发与执行通道,确保客户端能以统一的协议访问后端能力。
基于模型上下文协议(Model Context Protocol, MCP)的服务器实现,提供对 GitHub 相关资源的访问与工具执行能力,并通过 JSON-RPC 与客户端进行通信,支持以 STDIO 传输进行交互的实际服务器实现。
基于 AtomCLI 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端以标准化方式提供资源、工具、提示模版与会话管理等上下文能力,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)与灵活的配置扩展。
一个基于 Model Context Protocol(MCP)的简单可运行 MCP 服务器示例,用于测试客户端对 MCP 的调用与交互,提供一个单工具(get_weather)的测试服务并通过标准输入输出(stdio)与客户端通信。
基于 Model Context Protocol 的 MCP 服务器实现,为 OpenClaw 等 LLM 客户端提供标准化的资源、工具和提示模板服务,支持 StdIO/HTTP SSE 等传输方式,通过 JSON-RPC 与客户端通信并暴露 MCP 工具与服务器信息。
基于 Model Context Protocol (MCP) 的 Dooray MCP 服务器实现,向大型语言模型客户端以标准化方式提供上下文信息与功能。核心能力包括托管与管理资源(Resources)、注册并执行工具(Tools)、定义与渲染提示模板(Prompts),并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力。
基于 Model Context Protocol 的 MCP 服务器,提供资源、工具与提示模板的后端服务,通过 JSON-RPC 与 MCP 客户端通信,内置对 Mackerel API 的多工具封装,支持多传输通道(如标准输入输出、SSE、WebSocket)以向大语言模型客户端提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供向 LLM 客户端暴露资源、注册与执行工具、以及渲染提示模板的能力,并通过 JSON-RPC/多传输协议与客户端互动,内置对 Confluence、Slack、Swagger 等外部工具的集成。
基于 Model Context Protocol(MCP) 的后端服务器实现,提供资源管理、工具注册与调用、以及 Prompt 模板渲染等能力,供 LLM 客户端以标准化方式获取上下文、数据与外部功能。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 形式暴露资源、工具和提示,提供会话管理、能力声明、工具注册与执行,以及对多种传输协议的支持,构建可扩展的上下文服务框架。
基于 SystemPrompt 的 MCP 服务器实现集合,提供资源管理、工具注册与执行、以及提示模板渲染等 MCP 核心能力,供大语言模型客户端通过 JSON-RPC 获取上下文信息与外部功能,并支持多种传输与会话场景。仓库中包含多个 MCP 服务器实现(如 systemprompt、moltbook、content-manager),共同构成一个可扩展的 MCP 后端生态。
基于模型上下文协议(MCP)的 Verkada API 后端服务器,提供资源管理、工具注册与执行,以及提示模板渲染等能力,通过 JSON-RPC 与大语言模型客户端进行通信,具备本地部署与扩展能力,并内置对 Verkada API 的工具集和请求处理框架。
基于 Model Context Protocol 的后端服务器实现,向大语言模型客户端提供统一的上下文服务,包括资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,支持 JSON-RPC 通信和多传输通道(如 STDIO/WebSocket/SSE)以供 AI Agent 调用。
基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供 npm 包的上下文、健康数据与可用工具,通过 JSON-RPC 形式处置资源、工具、提示模板等能力,并支持 MCP 客户端的连接与调用。
基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器向 LLM 客户端暴露 Helicone 的数据资源与工具,并通过 JSON-RPC 进行通信;当前实现注册了若干工具(如 query_requests、query_sessions、use_ai_gateway),实现了通过标准输入/输出的传输(Stdio)运行方式,以供 LLM 客户端调用与交互。
基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。
基于 Model Context Protocol (MCP) 的邮件上下文后端,为大模型/LLM 客户端提供资源访问、工具执行和提示渲染能力;通过 JSON-RPC 与客户端通信,支持在本地Outlook 环境中进行邮件加载、查询、撰写与批量转发等操作,并提供服务端会话管理与工具注册机制。该实现面向在 Windows 上使用 Outlook 的场景,核心目的是为 LLM 应用提供可扩展、可控的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,面向 Claude Code 等 LLM 客户端提供标准化的上下文与功能服务。
基于 Model Context Protocol (MCP) 的后端服务,向大型语言模型提供 MediaWiki 的资源访问、工具执行和提示模板渲染等上下文服务。服务器支持多种传输模式(标准输入输出、HTTP),并实现会话管理、权限控制、可观测性和安全保护,帮助 LLM 客户端以标准化方式查询 wiki 内容、执行外部工具以及获取/渲染 Prompt 模板。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 的定义/渲染,支持通过多种传输方式进行 JSON-RPC 通信,供 LLM 客户端以标准化方式获取上下文、调用外部工具并渲染对话模板。
基于模型上下文协议(MCP)的 PostgreSQL 只读服务器实现,向LLM客户端提供结构化数据库资源、工具注册与提示渲染能力,通过JSON-RPC风格的MCP接口进行交互,支持多数据库只读查询、模式描述、索引/外键查询以及健康监控等功能。
基于 Model Context Protocol (MCP) 的后端服务器,作为 VidCap YouTube API 的上下文服务提供方,管理资源与工具,支持 JSON-RPC 的请求/响应,并通过 STDIO、流式 HTTP/WebSocket 等传输方式与 MCP 客户端进行交互,便于 AI 助手在对话中获取视频数据、执行外部功能和渲染提示模板。
基于 Model Context Protocol 构建的 MCP 服务器实现集合,提供资源与工具的托管、Prompt 定义及渲染能力,并通过 JSON-RPC 与客户端通信,支持多入口输出、浏览器扩展场景,以及跨进程/跨页面的上下文服务能力。
基于 Model Context Protocol (MCP) 的后端服务端实现,作为 MCP 服务器向大语言模型客户端提供标准化的资源管理、工具注册/执行以及 Prompt 模板渲染等能力,使用 JSON-RPC 进行通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)以满足多样化上下文服务需求。
基于 Model Context Protocol (MCP) 的后端服务器,实现了资源(数据)托管、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 方式与客户端通信,具備会话管理、能力声明以及对多传输协议的支持,用于为 LLM 客户端提供可扩展的金融上下文服务。
基于 Spring Boot 和 Spring AI 的 MCP 服务器,集成 AI 模型并可管理外部 MCP 服务。
基于Micronaut框架构建的MCP服务器PoC,专注于提供工具注册和调用功能,通过标准输入/输出与客户端通信。
基于Cloudflare Workers实现的远程MCP服务器,提供资源管理、工具注册和Prompt模板渲染等MCP核心功能,并支持OAuth登录。
基于OpenAI Agents SDK的MCP示例服务器,提供工具注册和SSE传输功能,演示MCP协议后端实现。
kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。
Quarkus MCP Server扩展,简化了基于Quarkus框架构建Model Context Protocol (MCP) 服务器的流程,支持资源、工具和Prompt模板的声明式API。