基于 Model Context Protocol 的后端服务器,为 Tandoor 食谱管理系统提供资源、工具和提示模板等上下文服务,供大语言模型调用与查询。
基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化方式向 LLM 客户端提供 MSSQL 数据库的资源、工具和提示等上下文服务,支持多语言实现(Node 与 .NET 版本)以及基于 JSON-RPC 的交互。
基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端提供上下文信息、工具调用通道与 Prompts 渲染等功能;核心通过 JSON-RPC 与客户端通信,示例实现包含最小化的服务器以支持集成测试场景。
基于 Model Context Protocol 的后端服务器实现,提供资源托管、工具注册与执行、提示模板管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议、会话管理与权限策略,以为大模型客户端提供安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的服务器实现,用于 Reflex DevTools 与 AI 客户端之间的交互。该服务器提供对应用状态、追踪数据、活动订阅、可用处理器/工具等的查询与执行能力,允许 AI 助手读取应用上下文、调用工具并渲染提示模板。通过 JSON-RPC/stdio/WebSocket 等传输,与前端仪表盘以及后端应用建立标准化的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)等能力,并通过 JSON-RPC 形式与 LLM 客户端交互,支持多种传输方式(如 STDIO、HTTP)。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源访问、以及与 LLM 的对话上下文渲染等核心能力。通过 JSON-RPC 与客户端通信,采用 STDIO 传输实现本地进程间通信,适用于 Claude Code 的 Telegram 插件后端场景。该实现涵盖工具调用、批量通知、审批流、AFK/监听等功能模块,具备完整的服务端能力与测试用例。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 客户端通信,支持多种传输通道,面向让大语言模型客户端高效获取上下文、能力和工具的后端服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,支持 stdio、HTTP、SSE 等传输,并通过 JSON-RPC 与客户端进行消息交互,具备会话管理、能力声明及多传输协议支持等能力。
基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供资源、工具和 Prompt 的标准化上下文服务,并通过 JSON-RPC 进行通信;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力,适用于将 Tana 数据和功能暴露给 AI 模型进行推理、调用和渲染。
基于 Model Context Protocol 的多模 MCP 服务器实现集合,提供资源管理、工具执行、模板与知识管理等功能,支持 JSON-RPC 通信和多传输通道,覆盖内存、搜索、浏览器、邮件、数据库等多种外部能力的统一后端服务。
基于 Model Context Protocol(MCP)的后端实现。提供对资源的管理、工具的注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与 SSE 与客户端通信,支持记录与回放等 MCP 服务能力,具备代理、捕获、回放、观测和安全测试等完整特性。
基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。
基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文、资源、工具与提示模板,并通过 JSON-RPC/WebSocket 实现 MCP 通信与扩展能力,支持会话管理、权限控制与多传输协议接入。
基于 Model Context Protocol 的 MCP 服务器,实现对 XPR(Proton 区块链)的工具查询、数据访问与外部部署能力,通过 JSON-RPC 与 MCP 客户端通信,并提供 Azure Functions 部署支持。
基于 Model Context Protocol 的后端 MCP 服务器实现,作为后端上下文服务提供商,向 LLM 客户端以标准化的 JSON-RPC 调用提供资源、工具与提示模板等能力,并通过 MCP 协议进行请求处理与响应返回。该仓库内实现了服务器端工具注册、请求分发以及对 Supabase 等后端的数据访问逻辑,可用于对接外部大模型应用场景。
基于 Model Context Protocol 的 MCP 服务器实现(集成于 Edda 框架),通过 JSON-RPC/多传输协议向 LLM 客户端暴露 durable workflows、资源和工具,并支持 Prompts 渲染,方便 AI 助手与后端工作流进行长期上下文交互和功能调用。
基于 Model Context Protocol 的 MCP 服务器实现,集成在 EllyMUD 游戏后端,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,便于与大型语言模型或外部 AI 客户端通过 JSON-RPC 进行上下文与功能交互。
基于 Model Context Protocol(MCP)的后端服务器实现,提供面向大语言模型客户端的上下文服务能力,包含工具(Tools)、资源(Resources)和提示模板(Prompts)的注册、管理与执行,支持通过 Spring Boot 部署并对接支持 MCP 的 Agent 客户端。
基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染,采用 STDIO 传输用于与 MCP 客户端进行 JSON-RPC 风格的通信,支持多模态上下文的读取、操作和交互。
基于 Crackerjack 的 MCP(Model Context Protocol)服务器实现,提供资源托管与管理、工具注册与执行、以及可渲染的 Prompt 模板等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 WebSocket、StdIO、SSE),为 LLM 客户端提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的管理与执行,支持通过 JSON-RPC 与 MCP 客户端通信,并具备标准化的服务器端会话管理和多传输模式能力(如 StdIO)。
基于 Model Context Protocol(Model Context Protocol,简称模型上下文协议)实现的后端服务器,提供机场、航空公司与机型等 IATA 代码的查询工具,并通过 MCP 客户端进行统一的上下文服务和外部工具调用。该服务器包含完整的 MCP 服务器实现、会话管理和工具执行能力,面向 AI 应用提供标准化的数据访问与功能扩展入口。
基于 Model Context Protocol 构建的后端服务,为对话型客户端提供标准化的资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,支持多引擎协同、JSON-RPC 通信以及多种传输协议的 MCP 场景实现。
基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 的定义/渲染,支持通过多种传输方式进行 JSON-RPC 通信,供 LLM 客户端以标准化方式获取上下文、调用外部工具并渲染对话模板。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板的托管与管理,并通过 MCP 协议向 LLM 客户端暴露上下文服务、数据访问与外部功能调用能力。支持多种传输方式(HTTP/JSON-RPC、SSE、WebSocket/流式)以及多用户隔离。
基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供资源访问、工具调用和提示模板的统一上下文服务,支持文档索引、向量检索、以及与 Claude Code 等 MCP 客户端的无缝集成。
基于 Model Context Protocol 的后端服务,提供资源、工具与提示模板的标准化上下文服务,通过 JSON-RPC 与 LLM 客户端进行交互,当前实现以 STDIO 传输为主要通讯方式,能够托管本地知识库中的日常简报、事实、理事会简报等资源,并暴露查询与渲染工具以支持多样化的 LLM 交互场景。
基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的企业级 MCP 服务器实现,提供网络诊断与知识检索等工具的服务端能力,并与图谱编排、工具网关、审计日志等模块协同工作,支持多服务器架构和标准化的 JSON-RPC 交互。
TypeScript SDK,用于构建基于模型上下文协议(MCP)的服务器端应用,提供装饰器定义的工具/资源/提示、会话管理、以及基于 JSON-RPC 的流式传输 HTTP 服务实现,支持自动发现、UI绑定与多种扩展能力。
基于 Model Context Protocol 构建的 MCP 服务器实现集合,提供资源与工具的托管、Prompt 定义及渲染能力,并通过 JSON-RPC 与客户端通信,支持多入口输出、浏览器扩展场景,以及跨进程/跨页面的上下文服务能力。
一个汇集了多份基于 Model Context Protocol (MCP) 的服务器实现与使用示例的学习资源库,能够通过标准化的 JSON-RPC 方式向 LLM 客户端暴露资源、工具与提示模板,支持 stdio 与 HTTP 等多种传输模式,并演示多服务器协同工作与工具调用执行流程。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,提供资源管理、工具注册/执行、Prompt 模板定义与渲染等能力,作为后端上下文服务框架供 LLM 客户端通过 JSON-RPC 进行资源访问、外部功能调用与交互模板渲染。仓库中包含多个可运行的 MCP 服务器示例,支持通过标准化接口对接 Claude/LLM 客户端。
TEQUMSA_NEXUS 仓库提供以 Model Context Protocol(MCP)为核心的后端服务器实现,涵盖资源、工具、提示模板等资源的托管与管理,以及通过 JSON-RPC 风格接口进行跨节点协同与数据访问,为大语言模型(LLM)客户端提供可扩展的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,用于托管与执行 BL1NK Skills,并集成 AWS Bedrock Nova Lite 进行技能生成与推理,支持资源、工具、提示模板的标准化管理与 JSON-RPC 通信。
基于AWS Lambda的serverless MCP服务器,通过HTTP为LLM应用提供工具能力。
基于Spring AI框架实现的MCP服务器示例,提供元素周期表查询、文件系统访问和地图路线规划等工具服务。
提供Model Context Protocol (MCP) 服务器的参考实现和一致性测试套件,支持STDIO和HTTP传输协议。
通过Model Context Protocol (MCP) 将Merge API的数据和功能集成到LLM应用,实现自然语言访问和操作Merge API数据。
基于Amazon Bedrock的文档问答聊天机器人,通过MCP服务器提供实时信息和外部工具访问,增强LLM上下文处理能力。
SingleStore MCP 服务器是一个基于 Model Context Protocol 的后端实现,旨在连接 SingleStore 数据库与 LLM 客户端,提供资源访问和数据库操作工具。
Agentic Finance Platform 是一个基于 Model Context Protocol (MCP) 的 AI 金融交易平台,利用多智能体协同进行投资决策,并提供实时监控和分析仪表板。
KAgent MCP Server基于Kubernetes,为AI Agent提供资源和工具管理,通过标准MCP协议简化LLM应用后端开发。
Authed MCP服务器集成方案,为AI Agent提供安全认证的Model Context Protocol服务。
Agentics Edge Functions提供了一个基于Supabase Serverless平台的Model Context Protocol (MCP) 服务器实现,用于管理AI Agent的资源和工具。
基于Amazon Bedrock的MCP服务器演示项目,提供ChatBot API并集成多种MCP工具,扩展大模型应用场景。
kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。
ATLAS MCP Server为大型语言模型提供层级任务管理能力,支持资源、工具和Prompt模板,并通过JSON-RPC协议与客户端通信。