将 Buttplug.io 设备暴露为 MCP 资源和工具,允许 LLM 通过自然语言控制情趣玩具。
一个基于 MCP 协议的服务器,用于分析代码库并自动生成 C4 架构图和 README 文档。
基于Spring AI框架实现的MCP服务器示例,提供元素周期表查询、文件系统访问和地图路线规划等工具服务。
一个Python实现的MCP服务器,通过资源、工具和Prompt模板,为LLM提供SQLite数据库的访问和数据分析能力。
为LLM应用提供Elasticsearch 7.x数据访问能力的MCP服务器,支持资源检索和聚合分析。
本仓库提供了一个MCP客户端示例,用于演示如何通过Model Context Protocol (MCP) 与MCP服务器交互,并探讨工具投毒攻击的可能性。
Infisical MCP Server 通过 Model Context Protocol (MCP) 协议,将 Infisical 密钥管理平台的功能以工具形式提供给 LLM 客户端,实现安全的密钥管理和访问控制。
连接LLM客户端与PocketBase后端的MCP服务器,提供数据管理、文件操作、日志查看和数据库迁移等工具集。
一个基于MCP协议实现的MySQL数据库操作服务器,支持通过工具执行SQL查询、获取表结构信息等,为LLM应用提供数据库交互能力。
该项目演示了如何使用Langchain、Chainlit和MCP协议构建AI应用,提供天气查询、数据库查询和PPT翻译等工具服务。
Codex MCP Server是一个为LLM应用提供区块链数据上下文服务的工具,通过MCP协议提供Codex平台丰富的链上数据查询和分析能力。
一个基于MCP协议的服务器,用于集成Microsoft Teams,提供消息读取、发送和成员管理等工具,为LLM应用提供Teams上下文服务。
MCPhoenix是一个使用Elixir Phoenix框架构建的轻量级MCP服务器实现,简化了上下文信息和工具的集成。
Hayhooks是一个轻量级框架,用于将Haystack Pipeline部署为MCP服务器,便捷地为LLM应用提供工具服务。
基于Model Context Protocol的Figma API服务器,提供丰富的Figma操作工具,赋能LLM设计协作和自动化能力。
Mattermost MCP 服务器是一个基于 Model Context Protocol (MCP) 的应用后端,旨在将 Mattermost 平台的消息数据作为上下文信息,以标准化的方式提供给 LLM 客户端。
通过Model Context Protocol,为LLM应用提供Oracle数据库的上下文信息和SQL执行能力。
基于Nginx和FastAPI的高性能MCP服务器,支持WebSocket/SSE协议,集成OpenAPI,用于构建实时LLM应用。
Kom MCP Server基于Kom Kubernetes操作库,通过Model Context Protocol为LLM客户端提供Kubernetes资源上下文信息和管理工具。
DevOps MCP Servers仓库为LLM应用提供了一系列与DevOps工具集成的MCP服务器实现方案,助力自动化运维。
演示如何使用Backstage和MCP协议构建LLM应用后端,提供Backstage模板管理和项目创建功能。
基于Model Context Protocol和Server-Sent Events的MQTT操作服务器,为LLM应用提供MQTT消息代理的桥梁。
一个基于 MCP 协议的 SQLite 服务器,提供数据库操作、业务洞察记录和 Prompt 模板功能,通过标准接口与 LLM 客户端交互。
基于 Spring AI 框架实现的 MCP 服务器示例,提供日期时间和天气查询工具,展示如何通过 Spring AI 构建 MCP 应用后端。
XiYan MCP Server 是一个基于 Model Context Protocol (MCP) 构建的应用后端,它提供自然语言查询数据库的能力,并可以通过工具和资源向 LLM 客户端提供数据库上下文信息。
一个用于管理MongoDB Atlas项目的Model Context Protocol (MCP) 服务器,允许LLM客户端通过工具管理MongoDB Atlas云服务资源。
一个PostgreSQL数据库的MCP服务器,允许LLM客户端通过标准协议访问和操作数据库资源,执行SQL工具,并使用预定义的Prompt模板进行交互。
Hyper MCP是一个基于WebAssembly和OCI Registry插件系统的模型上下文协议(MCP)服务器,旨在为LLM应用提供可扩展的上下文服务。
mcp-kotlin-sdk仓库是基于Kotlin实现的Model Context Protocol (MCP) SDK,它不仅提供了构建MCP客户端的能力,也包含了创建MCP服务器的功能,旨在帮助开发者便捷地构建和部署MCP应用。
一个MCP服务器,允许LLM客户端安全地与OceanBase数据库交互,提供数据查询和SQL执行能力。
基于Vercel的MCP服务器实现,提供资源、工具和Prompt模板管理,通过SSE与客户端通信,支持LLM应用构建。
FastMCP是一个TypeScript框架,用于快速构建支持Model Context Protocol (MCP) 的服务器,简化工具、资源和Prompt的定义与管理,并支持多种传输协议。
该项目是一个MCP服务器,为LLM客户端提供访问Roam Research知识库的桥梁,支持页面内容读取、页面和块创建、Markdown导入及TODO添加等功能,方便AI助手与用户的Roam笔记进行交互。
该项目是一个 MCP 服务器,为 MCP 客户端(如 Claude Desktop)提供 Discord 集成能力,允许 LLM 通过工具与 Discord 平台互动。
Quarkus MCP Server扩展,简化了基于Quarkus框架构建Model Context Protocol (MCP) 服务器的流程,支持资源、工具和Prompt模板的声明式API。
Singlestore MCP Server是一个轻量级服务器,旨在为LLM应用提供安全可控的SingleStore数据库访问能力,支持表浏览、数据读取和SQL查询执行等功能。
Prometheus MCP Server为LLM应用提供访问Prometheus监控指标数据的能力,通过MCP协议桥接Prometheus服务器,支持LLM应用获取Prometheus的监控数据。
mcp-hfspace是一个MCP服务器,旨在连接Claude Desktop等MCP客户端与Hugging Face Spaces上的各种AI模型,实现对HF Spaces模型的便捷访问和调用。
该项目实现了 Prometheus MCP 服务器,允许 LLM 客户端通过 MCP 协议访问 Prometheus 指标数据,提供指标检索和分析工具,增强 LLM 在监控数据分析方面的能力。
sd_chat是一个MCP服务器,通过聊天界面,支持Stable Diffusion文生图、模型管理和Civitai模型下载安装。
mcp-doris 是一个 MCP 服务器,为 LLM 应用提供访问 Apache Doris 数据库的能力,支持数据库和表信息查询以及 SQL 查询执行。
World Time MCP Server 是一个基于 Spring AI MCP 构建的简单服务器,它通过 World Time API 向 LLM 提供当前时间信息。
该项目是OpenMetadata的MCP服务器实现,旨在通过MCP协议为LLM应用提供访问和管理OpenMetadata元数据能力,目前主要支持数据表资源的查询和管理功能。
Penumbra MCP服务器为LLM应用提供访问Penumbra区块链的工具,实现隐私交易查询、验证器信息、DEX状态和治理提案等功能。