基于 Model Context Protocol (MCP) 的本地服务器实现,提供对浏览器标签、分组、窗口等资源的访问、工具的注册与执行,以及提示模板的定义与渲染,供外部大语言模型(LLM)客户端通过 JSON-RPC 进行上下文查询、操作与交互。
基于 Model Context Protocol (MCP) 的 Poznote 后端服务器实现,利用 FastMCP 在 HTTP 流式传输上通过 JSON-RPC 提供笔记资源、工具方法与数据访问能力,支持多用户环境与简易的扩展工具集。该服务器可让大语言模型(LLM)以统一、标准化的方式读取笔记、执行笔记操作、查询工作区与文件等上下文信息。
基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具与提示模板的标准化暴露,支持 HTTP 流式传输与 stdio 传输等多种传输方式,供各类 LLM 客户端(如 Claude Desktop、VS Code Copilot、OpenWebUI 等)进行工具调用与上下文查询。
基于 Model Context Protocol(MCP)的后端服务器,实现资源对接、工具注册/执行与提示模板渲染等能力,向大语言模型客户端提供标准化的上下文服务,通过 JSON-RPC 进行通信,支持多传输协议和会话管理,适用于多实例协同的上下文服务场景。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的管理以及 JSON-RPC 通信,支持标准化的上下文服务与多传输协议。
基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化的 JSON-RPC 接口向 LLM 客户端提供 Recharge API 的资源、工具和提示模板等上下文服务,并通过标准传输(如 stdio)与客户端进行通信。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源与数据访问、工具注册与执行、以及 Prompt 模板渲染等能力,支持通过 JSON-RPC 与 LLM 客户端通信,并在 DuckDB/BigQuery 等后端上对临床数据集进行安全、可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器端实现,提供 PatternFly 的资源、工具与文档的统一上下文服务,支持多传输协议(STDIO、HTTP/WebSocket 等)、会话管理与能力声明,水平扩展以供 LLM 客户端获取资源、执行工具和渲染 Prompt 模板等上下文信息。
一个覆盖多语言实现的 MCP 服务器示例集合,展示如何使用 Model Context Protocol 构建后端以暴露资源、工具和提示模板等能力,包含从基础示例到多传输协议的完整实现与解决方案。
基于 AtomCLI 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端以标准化方式提供资源、工具、提示模版与会话管理等上下文能力,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)与灵活的配置扩展。
基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供资源数据、工具执行能力和 Prompt 模板渲染等上下文服务,支持通过标准化的 JSON-RPC 方式交互,并可通过 STDIO、SSE/HTTP 等传输协议进行通信与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,提供将速率测试后端数据以 MCP 标准暴露给大语言模型客户端的能力;通过 JSON-RPC 风格的输入输出,在 stdin/stdout 方式下与客户端对话,支持初始化、工具列表与工具调用等核心功能,便于搭建可扩展的 LLM 辅助上下文服务入口。
基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行,以及提示模板的统一管理,通过 JSON-RPC 与 LLM 客户端进行交互,支持流式传输、会话管理与多种传输协议,使 ABAP/RAP 场景下的上下文服务可扩展且安全。
基于 Model Context Protocol 的 MCP 服务器实现,将本地技能暴露为 MCP 工具,支持 Claude Code、GitHub Copilot 等代理直接调用技能,从而实现本地技能的 Agent-Native 访问与执行。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端通信,支持本地 IPC 与 WebSocket 等传输方式,面向 LLM 客户端提供可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供资源/工具的注册、查询与执行,并通过 JSON-RPC 进行通信以实现后端上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器集,提供资源托管、工具注册/执行、以及提示模板渲染等能力;通过 JSON-RPC/HTTP 等传输协议与 LLM 客户端进行标准化通信,支持会话管理、能力声明,并可扩展为多传输通道(如 STDIO、SSE、WebSocket 等)。
基于 Model Context Protocol(MCP)的 Cron 任务管理 MCP 服务器实现,允许 MCP 客户端通过标准化的 JSON-RPC 调用对后端 Cron 作业进行查询、添加、删除、执行及状态获取,并通过主进程 REST API 与后端数据库和任务数据交互。
基于 Model Context Protocol 的 MCP 服务器实现,为 OpenClaw 等 LLM 客户端提供标准化的资源、工具和提示模板服务,支持 StdIO/HTTP SSE 等传输方式,通过 JSON-RPC 与客户端通信并暴露 MCP 工具与服务器信息。
基于 Model Context Protocol (MCP) 的后端服务端实现,公开招聘领域的资源、工具与提示模板,通过 MCP.json-rpc 风格的请求与客户端进行交互,并提供对多种传输与会话能力的支持(如工具注册、资源访问、提示渲染及安全授权)。
基于 Model Context Protocol 的多服务器后端实现,向 LLM 客户端提供资源、工具及可渲染的提示模板等上下文服务,通过 JSON-RPC 与客户端进行通信,支持多种传输方式,具备注册、管理、执行工具以及安全治理等能力。
基于 Model Context Protocol 的后端服务器,提供统一的资源管理、工具注册与执行、提示模板渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输方式(如 Stdio、SSE、WebSocket)。
基于 Model Context Protocol (MCP) 的后端服务实现,提供对资源(Resource)、工具(Tools)及提示模板(Prompts)的管理与执行能力,并通过标准的 JSON-RPC 与客户端进行通信。支持多服务器配置、OAuth 与微支付等扩展能力,能够作为 LLM 客户端的上下文与功能提供端。
基于 Model Context Protocol 的可扩展后端,提供资源、工具与提示模板的 MCP 服务,通过 JSON-RPC 与 LLM 客户端交互,支持插件化视觉分析能力和多种传输方式。整个体系以 FastAPI/uv 工具链实现服务器端能力管理与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,提供任务、时间块、子任务、用户等资源的管理和工具注册,面向 LLM 客户端通过 JSON-RPC 进行统一上下文服务与能力调用,支持 Stdio 等传输协议。)
基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具与提示模板的统一访问接口,整合 Ollama、Playwright、GitHub API 等工具集,面向大型语言模型客户端提供可扩展的上下文与能力服务。
基于 Model Context Protocol(MCP)的后端服务器集合,向大型语言模型客户端以标准化方式提供上下文信息与功能,包括托管资源、注册与执行工具,以及定义/渲染提示模板;支持多种传输协议(Stdio、SSE、HTTP),通过 JSON-RPC 与客户端通信,适用于 Claude Code 等工作流场景。
基于 Veritas Kanban 的 MCP 服务器实现,提供以 JSON-RPC 方式向 AI 助手/客户端暴露资源、工具、提示模板等上下文能力的后端服务,并支持多传输通道与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,整合插件注册、工具执行、资源管理与提示模板,通过 JSON-RPC 与浏览器客户端通信,支持 WebSocket 与 HTTP 传输,为 LLM 提供统一的上下文、工具调用和提示渲染能力,方便在开发环境中扩展自动化工具和上下文服务。
基于 Model Context Protocol (MCP) 的多租户后端服务器,实现资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,并通过 JSON-RPC 与客户端进行通信,支持 HTTP/Streamable HTTP 和 SSE 等传输协议。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与 Prompt 模板的注册、管理、执行与渲染,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式与会话管理,便于 LLM 客户端获取上下文信息与外部功能。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具执行与提示模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 两种传输模式,便于将 AI 助手接入 Phoebe API 的上下文与功能。
基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务;通过 JSON-RPC 进行请求/响应,并支持会话管理、能力声明与多传输协议(如 Stdio、SSE、WebSocket)的扩展能力。
基于 Model Context Protocol 的后端服务实现,提供资源、工具、提示等统一管理,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输方式(如 SSE)。完整的 MCP 服务器端实现,包含服务初始化、挑战/结果管理、评测与分析、以及对外暴露的健康端点。
基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端通过标准化的 JSON-RPC 方式提供资源、工具与提示模板等上下文信息,并支持开发/生产两种模式、以及通过标准传输通道进行通信。
基于 Model Context Protocol(MCP)的后端服务器实现;通过标准化的 JSON-RPC 方式向 LLM 客户端提供上下文信息、资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持多传输协议(如 Stdio、SSE、WebSocket),用于构建安全、可扩展的 LLM 上下文服务平台。
基于 Model Context Protocol 的后端服务,提供资源管理、工具注册/调用以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,并集成 Rossum API 提供安全、可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供对 Sirchmunk 的资源托管、工具注册与执行,以及提示模板渲染等能力,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文与功能服务。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源管理、工具注册与执行、以及基于模板的 Prompt 渲染等上下文服务,通过 JSON-RPC 与客户端通信并支持标准化的工作流与多后端后端适配。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供 MCP 的核心能力:注册并执行工具(Tools)、托管资源与数据,以及通过 JSON-RPC 风格的交互向 LLM 客户端提供上下文与功能,支持多传输协议(stdio 与 HTTP/SSE)以便与不同的 AI 客户端对接。项目中包含可运行的 MCP 服务器代码和 HTTP/SSE 传输实现,适合作为对接大模型代理的后端服务。
基于 Model Context Protocol (MCP) 的后端服务器,标准化向大语言模型客户端提供新闻资源、工具和提示模板,支持本地 stdio 与 HTTP/SSE 传输,以实现实时上下文和外部功能的访问。
基于 Model Context Protocol 的 MCP 服务器,为本地知识库的 AI 客户端提供资源管理、工具执行与 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信。
基于 Model Context Protocol(MCP)的后端服务,为 LLM 客户端(如 Claude)提供统一的上下文服务,包括资源、工具和提示模板的管理;通过 JSON-RPC 进行通信,支持 SSE/stdio 等传输协议,并具备会话管理与认证机制,适合作为法律场景下的上下文与功能后端。
基于 Model Context Protocol(MCP)的后端服务,实现对资源、工具与 Prompt 模板的管理与渲染,提供面向 LLM 客户端的上下文服务与交互能力,支持多种传输模式(STDIO、SSE、HTTP),实现 Java 生态中的 Jakarta EE 迁移支持与分析工具的远程调用。
一个用于构建、部署和连接基于 Model Context Protocol(MCP)的后端服务与工具的综合工具链。它提供服务器代理、MCPB/Manifest 支持、检测与打包、工具注册与发布,以及本地/远程工具的解析与加载等能力,帮助开发者高效搭建和维护 MCP 服务端环境。
基于 Model Context Protocol 的 MCP 服务端实现,负责与 MCP 客户端通过 JSON-RPC 协议通信,注册并执行外部工具、管理资源与提示模板,并支持多种传输方式(如 STDIO、HTTP SSE),提供会话管理、能力声明及外部工具的接入能力。
基于 Model Context Protocol (MCP) 的 BoxLang 后端服务器实现,提供对 Resources、Tools 与 Prompts 的注册、管理与暴露,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 客户端提供标准化的上下文服务、会话与能力声明。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的托管与通过 JSON-RPC 与客户端通信的后端服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具、Prompt 模板等上下文能力的托管与管理,并通过 JSON-RPC 风格的 MCP 协议对接 LLM 客户端。实现了对 MCP 请求/响应的处理、传输协议支持(SSE/HTTP proxy、STDIO 启动模式等)、以及与网关、权限、鉴权和模块化插件体系的协同运行,定位于为 LLM 应用提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的广告自动化后端实现,提供资源、工具和 Prompt 模板的托管与管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol 的后端服务器,为 Tandoor 食谱管理系统提供资源、工具和提示模板等上下文服务,供大语言模型调用与查询。
基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化方式向 LLM 客户端提供 MSSQL 数据库的资源、工具和提示等上下文服务,支持多语言实现(Node 与 .NET 版本)以及基于 JSON-RPC 的交互。
基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端提供上下文信息、工具调用通道与 Prompts 渲染等功能;核心通过 JSON-RPC 与客户端通信,示例实现包含最小化的服务器以支持集成测试场景。
基于 Model Context Protocol 的后端服务器实现,提供资源托管、工具注册与执行、提示模板管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议、会话管理与权限策略,以为大模型客户端提供安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的服务器实现,用于 Reflex DevTools 与 AI 客户端之间的交互。该服务器提供对应用状态、追踪数据、活动订阅、可用处理器/工具等的查询与执行能力,允许 AI 助手读取应用上下文、调用工具并渲染提示模板。通过 JSON-RPC/stdio/WebSocket 等传输,与前端仪表盘以及后端应用建立标准化的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)等能力,并通过 JSON-RPC 形式与 LLM 客户端交互,支持多种传输方式(如 STDIO、HTTP)。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源访问、以及与 LLM 的对话上下文渲染等核心能力。通过 JSON-RPC 与客户端通信,采用 STDIO 传输实现本地进程间通信,适用于 Claude Code 的 Telegram 插件后端场景。该实现涵盖工具调用、批量通知、审批流、AFK/监听等功能模块,具备完整的服务端能力与测试用例。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 客户端通信,支持多种传输通道,面向让大语言模型客户端高效获取上下文、能力和工具的后端服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,支持 stdio、HTTP、SSE 等传输,并通过 JSON-RPC 与客户端进行消息交互,具备会话管理、能力声明及多传输协议支持等能力。
基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供资源、工具和 Prompt 的标准化上下文服务,并通过 JSON-RPC 进行通信;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力,适用于将 Tana 数据和功能暴露给 AI 模型进行推理、调用和渲染。
基于 Model Context Protocol 的多模 MCP 服务器实现集合,提供资源管理、工具执行、模板与知识管理等功能,支持 JSON-RPC 通信和多传输通道,覆盖内存、搜索、浏览器、邮件、数据库等多种外部能力的统一后端服务。
基于 Model Context Protocol(MCP)的后端实现。提供对资源的管理、工具的注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与 SSE 与客户端通信,支持记录与回放等 MCP 服务能力,具备代理、捕获、回放、观测和安全测试等完整特性。
基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。
基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文、资源、工具与提示模板,并通过 JSON-RPC/WebSocket 实现 MCP 通信与扩展能力,支持会话管理、权限控制与多传输协议接入。
基于 Model Context Protocol 的 MCP 服务器,实现对 XPR(Proton 区块链)的工具查询、数据访问与外部部署能力,通过 JSON-RPC 与 MCP 客户端通信,并提供 Azure Functions 部署支持。
基于 Model Context Protocol 的后端 MCP 服务器实现,作为后端上下文服务提供商,向 LLM 客户端以标准化的 JSON-RPC 调用提供资源、工具与提示模板等能力,并通过 MCP 协议进行请求处理与响应返回。该仓库内实现了服务器端工具注册、请求分发以及对 Supabase 等后端的数据访问逻辑,可用于对接外部大模型应用场景。
基于 Model Context Protocol 的 MCP 服务器实现(集成于 Edda 框架),通过 JSON-RPC/多传输协议向 LLM 客户端暴露 durable workflows、资源和工具,并支持 Prompts 渲染,方便 AI 助手与后端工作流进行长期上下文交互和功能调用。
基于 Model Context Protocol 的 MCP 服务器实现,集成在 EllyMUD 游戏后端,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,便于与大型语言模型或外部 AI 客户端通过 JSON-RPC 进行上下文与功能交互。
基于 Model Context Protocol(MCP)的后端服务器实现,提供面向大语言模型客户端的上下文服务能力,包含工具(Tools)、资源(Resources)和提示模板(Prompts)的注册、管理与执行,支持通过 Spring Boot 部署并对接支持 MCP 的 Agent 客户端。
基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染,采用 STDIO 传输用于与 MCP 客户端进行 JSON-RPC 风格的通信,支持多模态上下文的读取、操作和交互。
基于 Crackerjack 的 MCP(Model Context Protocol)服务器实现,提供资源托管与管理、工具注册与执行、以及可渲染的 Prompt 模板等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 WebSocket、StdIO、SSE),为 LLM 客户端提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的管理与执行,支持通过 JSON-RPC 与 MCP 客户端通信,并具备标准化的服务器端会话管理和多传输模式能力(如 StdIO)。
基于 Model Context Protocol(Model Context Protocol,简称模型上下文协议)实现的后端服务器,提供机场、航空公司与机型等 IATA 代码的查询工具,并通过 MCP 客户端进行统一的上下文服务和外部工具调用。该服务器包含完整的 MCP 服务器实现、会话管理和工具执行能力,面向 AI 应用提供标准化的数据访问与功能扩展入口。
基于 Model Context Protocol 构建的后端服务,为对话型客户端提供标准化的资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,支持多引擎协同、JSON-RPC 通信以及多种传输协议的 MCP 场景实现。
基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 的定义/渲染,支持通过多种传输方式进行 JSON-RPC 通信,供 LLM 客户端以标准化方式获取上下文、调用外部工具并渲染对话模板。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板的托管与管理,并通过 MCP 协议向 LLM 客户端暴露上下文服务、数据访问与外部功能调用能力。支持多种传输方式(HTTP/JSON-RPC、SSE、WebSocket/流式)以及多用户隔离。
基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供资源访问、工具调用和提示模板的统一上下文服务,支持文档索引、向量检索、以及与 Claude Code 等 MCP 客户端的无缝集成。
基于 Model Context Protocol 的后端服务,提供资源、工具与提示模板的标准化上下文服务,通过 JSON-RPC 与 LLM 客户端进行交互,当前实现以 STDIO 传输为主要通讯方式,能够托管本地知识库中的日常简报、事实、理事会简报等资源,并暴露查询与渲染工具以支持多样化的 LLM 交互场景。
基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的企业级 MCP 服务器实现,提供网络诊断与知识检索等工具的服务端能力,并与图谱编排、工具网关、审计日志等模块协同工作,支持多服务器架构和标准化的 JSON-RPC 交互。
TypeScript SDK,用于构建基于模型上下文协议(MCP)的服务器端应用,提供装饰器定义的工具/资源/提示、会话管理、以及基于 JSON-RPC 的流式传输 HTTP 服务实现,支持自动发现、UI绑定与多种扩展能力。
基于 Model Context Protocol 构建的 MCP 服务器实现集合,提供资源与工具的托管、Prompt 定义及渲染能力,并通过 JSON-RPC 与客户端通信,支持多入口输出、浏览器扩展场景,以及跨进程/跨页面的上下文服务能力。
一个汇集了多份基于 Model Context Protocol (MCP) 的服务器实现与使用示例的学习资源库,能够通过标准化的 JSON-RPC 方式向 LLM 客户端暴露资源、工具与提示模板,支持 stdio 与 HTTP 等多种传输模式,并演示多服务器协同工作与工具调用执行流程。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,提供资源管理、工具注册/执行、Prompt 模板定义与渲染等能力,作为后端上下文服务框架供 LLM 客户端通过 JSON-RPC 进行资源访问、外部功能调用与交互模板渲染。仓库中包含多个可运行的 MCP 服务器示例,支持通过标准化接口对接 Claude/LLM 客户端。
TEQUMSA_NEXUS 仓库提供以 Model Context Protocol(MCP)为核心的后端服务器实现,涵盖资源、工具、提示模板等资源的托管与管理,以及通过 JSON-RPC 风格接口进行跨节点协同与数据访问,为大语言模型(LLM)客户端提供可扩展的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,用于托管与执行 BL1NK Skills,并集成 AWS Bedrock Nova Lite 进行技能生成与推理,支持资源、工具、提示模板的标准化管理与 JSON-RPC 通信。
基于AWS Lambda的serverless MCP服务器,通过HTTP为LLM应用提供工具能力。
基于Spring AI框架实现的MCP服务器示例,提供元素周期表查询、文件系统访问和地图路线规划等工具服务。
提供Model Context Protocol (MCP) 服务器的参考实现和一致性测试套件,支持STDIO和HTTP传输协议。
通过Model Context Protocol (MCP) 将Merge API的数据和功能集成到LLM应用,实现自然语言访问和操作Merge API数据。
基于Amazon Bedrock的文档问答聊天机器人,通过MCP服务器提供实时信息和外部工具访问,增强LLM上下文处理能力。
SingleStore MCP 服务器是一个基于 Model Context Protocol 的后端实现,旨在连接 SingleStore 数据库与 LLM 客户端,提供资源访问和数据库操作工具。
Agentic Finance Platform 是一个基于 Model Context Protocol (MCP) 的 AI 金融交易平台,利用多智能体协同进行投资决策,并提供实时监控和分析仪表板。
KAgent MCP Server基于Kubernetes,为AI Agent提供资源和工具管理,通过标准MCP协议简化LLM应用后端开发。
Authed MCP服务器集成方案,为AI Agent提供安全认证的Model Context Protocol服务。
Agentics Edge Functions提供了一个基于Supabase Serverless平台的Model Context Protocol (MCP) 服务器实现,用于管理AI Agent的资源和工具。
基于Amazon Bedrock的MCP服务器演示项目,提供ChatBot API并集成多种MCP工具,扩展大模型应用场景。
kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。
ATLAS MCP Server为大型语言模型提供层级任务管理能力,支持资源、工具和Prompt模板,并通过JSON-RPC协议与客户端通信。