基于 Model Context Protocol 的后端服务器,实现对 Recharge Storefront API 的资源访问、工具注册/执行以及 Prompts 渲染,面向与 LLM 客户端的标准化上下文服务能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,聚合多家生物医药数据库的工具与资源,通过 JSON-RPC 与 LLM 客户端通信,提供资源托管、工具注册与执行、提示模板渲染等能力,并支持统一端点与各个 API 的专用端点,面向将来将上下文信息与功能模块化提供给大语言模型进行后端上下文服务。该仓库实现了一个以 FastMCP 为核心、覆盖 Reactome、KEGG、UniProt、Omim、GWAS、PubMed、OpenFDA、MyVariant、BioThings、NCI 等多家 API 的 MCP 服务器集合。
基于 Model Context Protocol (MCP) 的 Home Assistant 后端实现,提供 13 种 MCP API 工具用于查询与操作 Home Assistant 资源、执行服务、以及渲染模板,支持标准化的 JSON-RPC 通信,并通过标准输出/输入(STDIO)等传输方式与 MCP 客户端协同工作。
基于 Model Context Protocol (MCP) 的后端服务器,提供对 Google Workspace 服务的资源、工具和提示模板等上下文服务,并通过 MCP JSON-RPC 与客户端通信,支持资源管理、工具注册与调用、以及 prompts 渲染等功能,适用于向 LLM 客户端提供安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化方式提供资源、工具和提示模板等上下文服务,并集成 Lightning Network 的支付与账户管理能力,支持 Operator/Agent 模式的 API 调用与管理。
基于 MCP(Model Context Protocol)的 Toggl Track MCP 服务器,向大型语言模型客户端提供时间跟踪、报表与数据 hydration 等上下文服务,借助工具接口暴露 Toggl 功能,并通过 JSON-RPC 形式进行安全、可扩展的交互与会话管理。
基于 Model Context Protocol (MCP) 的后端服务器集合,提供以 JSON-RPC 方式向 LLM 客户端暴露的资源管理、工具执行与提示渲染等能力,用以构建端到端的性能测试、分析与报告管线。仓库中包含多路 MCP 服务器实现(如 JMeter、BlazeMeter、Datadog、Perf Analysis、Confluence、Microsoft Graph 等),实现资源、工具、提示的注册与执行,以及 JMeter JMX 生成、数据汇总、报表输出等功能,支持多种传输协议(如 stdio、WebSocket、SSE),具备会话管理、能力声明与跨服务器协作能力,旨在为 LLM 驱动的性能测试流水线提供稳定的后端上下文与接口服务。
将JumpServer API封装为MCP工具, enabling AI/LLM clients to interact with JumpServer功能。
通过MCP协议为LLM提供访问Contentstack Knowledge Vault及模拟数据的功能工具。
提供 Mercado Pago 文档搜索工具,使大语言模型客户端能够查询相关信息的 MCP 服务器。
一键将 OpenAPI 规范转换为 MCP 服务器,无缝集成 Claude Desktop,轻松为 Claude 添加 API 能力。
dkmaker_mcp-rest-api 是一个基于 TypeScript 开发的 MCP 服务器,提供 REST API 测试工具,允许用户通过 MCP 客户端(如 Cline)调用和调试 RESTful 接口。
Claude MCP Server Collection 仓库提供了一系列MCP服务器,旨在增强 Claude 桌面应用的功能,包括屏幕截图、计算机控制、数据分析和API集成等能力。