一个基于Model Context Protocol (MCP) 的生产级AI代理平台,提供可扩展的工具执行能力和上下文服务。
该MCP服务器为LLM客户端提供访问Open Charge Map (OCM) EV充电站数据和功能的标准化接口。
Jibberish 仓库中的 MCP 示例工具服务器,通过 HTTP 和标准输入/输出 (Stdio) 实现 MCP 协议,为 LLM 客户端提供可发现、可调用的工具功能。
Deco CMS提供了一个基于 Model Context Protocol (MCP) 的AI原生应用后端框架,用于管理AI资源、工具、工作流及会话,支持Cloudflare Worker部署。
为大语言模型(LLM)客户端提供与Home Assistant智能家居系统交互的后端服务,支持设备控制、状态查询和自动化管理。
一个多平台Kotlin库,提供功能齐全的AI代理和工具,并通过Model Context Protocol (MCP) 将其暴露为可被LLM客户端调用的上下文服务。
DeployStack 是一个 MCP 即服务平台,通过托管和管理 MCP 服务器简化 AI Agents 对工具、资源和 Prompt 的访问,实现零安装和统一治理。
基于FastMCP框架,为LLM提供事件管理和分析服务,深度集成PagerDuty工具和资源。
一个生产就绪的 FastMCP 服务器模板,支持动态加载工具、资源、Prompt,并提供身份认证和多种部署方式。
提供基于 Model Context Protocol (MCP) 的示例服务器实现,用于将 ChatGPT 应用与外部系统(如交互式UI小部件)连接。
为大型语言模型(LLM)提供访问和管理 Jira、Confluence 和 Bitbucket 数据及功能的标准化接口。
一个基于Model Context Protocol (MCP) 标准,用Go语言实现的服务器,提供茶叶工具、资源和提示服务,支持Stdio和HTTP/SSE传输。
将 Fastify 应用转变为高性能、可流式传输的 MCP 服务器,支持 AI 助手安全连接外部数据和工具。
为基于 Model Context Protocol (MCP) 构建的 Node.js 服务器提供核心框架和常用功能,简化 LLM 应用后端开发。
将 OpenAPI 规范定义的 REST API 自动转换为 MCP 工具,使 LLM 客户端能通过标准化协议与外部 API 交互。
为大型语言模型(LLM)客户端提供旅程追踪应用的公共数据和工具访问,支持旅程信息查询、行程规划建议和公开页面内容获取。
提供多种语言和协议实现的MCP服务器示例,展示Model Context Protocol的核心功能和客户端集成。
一个基于Model Context Protocol (MCP) SDK构建的服务器实现示例,用于向LLM客户端提供资源访问和工具调用功能。
为 Obsidian 笔记库提供上下文管理和工具调用能力的 MCP 服务器,方便 AI 助手集成。
一个专业的Model Context Protocol (MCP) 服务器,通过自动化交互将Google NotebookLM的功能和上下文能力提供给LLM客户端。
RAGent 提供了一个基于 Model Context Protocol (MCP) 的服务器,将混合搜索能力以标准化工具的形式暴露给 LLM 客户端。
一个Python库,将Pyramid Web框架应用端点无缝转换为遵循Model Context Protocol (MCP) 的工具服务器,为LLM提供上下文与功能。
一个基于Go语言实现的Model Context Protocol (MCP) 服务器,内置OpenTelemetry支持,提供LLM应用所需的上下文服务和工具调用能力。
基于Model Context Protocol (MCP) 标准,为LLM客户端提供托管和管理外部工具(如天气查询、客户信息、网页抓取、维基百科搜索)的能力。
Arcade AI 平台是一个用于构建、部署和管理 AI Agent 工具的开发平台,其核心 `arcade-serve` 库提供 MCP 服务器实现,以标准化方式向 LLM 客户端提供上下文信息和功能。
基于Model Context Protocol (MCP) 的.NET Core应用,提供与Microsoft SQL Server数据库交互的上下文服务,支持查询、模式发现、存储过程管理等功能。
一个简单的TypeScript MCP服务器模板,演示了如何使用Blaxel平台创建并运行MCP工具。
Madness Interactive 生态中的核心 MCP 服务器,用于分布式任务管理、Agent 协同与上下文服务。
通过MCP协议为大型语言模型客户端提供Azure Blob Storage的访问与管理能力。
在Vercel/Next.js应用中快速构建和部署Model Context Protocol (MCP) 服务器,连接您的应用功能与AI模型。
专为本地 Laravel 开发构建的 MCP 服务器,为 AI 客户端提供丰富的项目上下文和操作工具。
基于TypeScript和Firestore,演示OAuth认证和工作空间隔离的MCP资源服务器参考实现。
基于MCP协议,托管多种AI工具(如天气、航班、量子计算等),为LLM客户端提供上下文和能力。
将 WhatsApp Business API 功能封装为 MCP 工具,为 LLM 客户端提供服务。
基于 TypeScript 的 SDK,用于构建符合 Model Context Protocol 的服务器,为 LLM 应用提供上下文和工具。
一个实现了Model Context Protocol (MCP) 的服务器,用于连接Offorte API,赋能AI应用创建和发送商业提案。
利用 AWS CDK 在 Lambda 构建无状态 MCP 服务器后端,为 LLM 应用提供上下文和工具。
包含基于 Model Context Protocol (MCP) 构建的服务器端示例,展示如何实现上下文服务和工具调用。
基于 C# 和 ASP.NET 实现的 MCP 服务器和客户端示例,演示如何构建 MCP 服务器、注册工具及客户端如何发现和调用这些工具。
用于连接智能体或工具到 Blaxel 平台,并支持使用 Blaxel SDK 构建 MCP 服务器的 TypeScript 开发工具包。
用于使用流畅接口快速构建 Model Context Protocol (MCP) 服务器的 JavaScript/TypeScript 库。
连接您的 Nextcloud 日历,通过 Model Context Protocol (MCP) 接口提供日历的查看、创建、修改、删除等功能,赋能支持 MCP 的大模型应用。
在Google Apps Script环境中实现模型上下文协议(MCP)服务器,提供基础上下文服务功能。
在Kubernetes集群中动态按需创建、管理和删除Model Context Protocol (MCP) 服务器的后端服务。
使用Python和MCP SDK快速构建模型上下文协议(MCP)服务器的模板,为LLM提供数据和工具访问能力。
一个基于 Gradio 构建的最小化 MCP 服务器,提供 Web UI 和可被 LLM 客户端调用的工具接口。
基于TypeScript的Model Context Protocol (MCP) 服务器基础框架,提供核心工具、资源示例及生产级开发工具。
快速创建、配置和部署基于 Cloudflare Workers 的 MCP 服务器,简化 LLM 工具开发。
基于 Spring AI 框架,提供 MCP 服务器的 Stdio 和 SSE 实现示例,支持工具调用。
提供通过 MCP 协议访问 Microsoft 365 文件和驱动器的服务器实现,为 LLM 客户端提供相关上下文和操作工具。
提供基于Model Context Protocol (MCP) 的工具注册与执行服务,支持集成Spring AI工具。
K8sGPT 是一款用于扫描 Kubernetes 集群、诊断并以自然语言解释问题,并可作为 MCP 服务器为 LLM 客户端提供上下文的服务端应用。
基于MCP协议,为LLM客户端提供访问Steampipe数据库的能力,通过工具查询数据和元信息。
基于Cloudflare Workers平台构建的MCP服务器演示项目,提供LLM工具和OAuth认证。
基于 Azure Functions 构建 Model Context Protocol (MCP) 服务器,提供工具能力给 LLM 客户端。
基于 Spring AI 实现的 MCP 服务器示例,演示如何托管工具,为 LLM 客户端提供上下文和功能。
基于Hono框架,实现Model Context Protocol (MCP) 的无状态服务器,优化适配Cloudflare Workers等Serverless环境。
基于Convoworks框架,将WordPress服务扩展为MCP服务器,通过SSE协议为LLM客户端提供工具和Prompt能力。
Teamtailor MCP Server 提供对 Teamtailor API 的集成,允许通过 MCP 协议调用 Teamtailor 的候选人数据。
SpaceBridge MCP服务器连接AI助手与SpaceBridge平台,实现跨Issue跟踪器的Issue管理自动化。
JokesMCP-TS 是一个基于 Model Context Protocol 的服务器,通过工具提供 Chuck Norris 笑话和 Dad Jokes 笑话。
ACI.dev 是一个开源平台,通过统一的 MCP 服务器和 Python SDK,为 AI Agent 提供安全、可扩展的工具集成和上下文服务。
基于 Spring Boot 和 MCP 构建的事件推荐聊天机器人后端,提供资源访问、工具注册和 Prompt 模板渲染等 MCP 核心功能。
TypingMind MCP Connector 是一个轻量级服务器,用于管理和连接多个 Model Context Protocol (MCP) 客户端,方便 TypingMind 等应用集成自定义 AI 模型和工具。
FastSD CPU MCP服务器是一个基于FastAPI构建的MCP后端,为LLM客户端提供快速CPU上的Stable Diffusion图像生成服务。
基于 Next.js 构建的 EigenLayer MCP 服务器,通过 MCP 协议向 AI 助手提供 EigenLayer 文档资源访问能力。
轻量级 TypeScript 库,用于构建可编排的多智能体 AI 系统,支持 Model Context Protocol (MCP) 服务器集成,提供上下文服务框架。
基于Cloudflare Workers构建的远程MCP服务器,提供OAuth登录和工具注册能力,可与Claude等客户端集成。
为大型语言模型客户端提供访问Google Drive文件的MCP服务器,支持文件搜索和内容获取功能。
Product Hunt MCP Server是一个即插即用的MCP服务器,为LLM应用提供访问Product Hunt数据的能力。
Airweave是一个多应用数据集成平台,可将各类应用转化为AI Agent可用的语义化MCP服务器,提供统一数据访问和检索能力。
一个基于MCP协议的服务器,提供Whistler Blackcomb滑雪胜地的实时天气信息,包括山区和村庄的天气预报。
该仓库通过示例项目展示了如何将MCP服务器与GitHub Copilot Agent模式集成,提供上下文信息和工具能力。
Speelka Agent 是一个通用的 LLM Agent,基于 Model Context Protocol (MCP) 构建,能够利用来自其他 MCP 服务器的工具,为 LLM 客户端提供上下文服务。
GoldRush MCP Server 是一个基于 Model Context Protocol 的服务器,它将 Covalent GoldRush API 的数据和功能以资源和工具的形式提供给 LLM 客户端。
为 Better Auth 应用提供模型上下文协议 (MCP) 服务,管理资源、工具和 Prompt 模板,标准化 LLM 交互。
一个基于 MCP 协议的服务器,允许 LLM 应用连接和查询 PostgreSQL 数据库,提供数据库信息和执行 SQL 查询的功能。
一个基于 Node.js 的 MCP 服务器,允许 LLM 客户端通过 Model Context Protocol 访问 Voiceflow 知识库,实现知识检索与问答功能。
基于Spring MVC和SSE实现的MCP服务器,支持通过JSON-RPC协议与LLM客户端进行上下文信息和功能交互。
PlanetScale CLI 内置的 MCP 服务器,为 AI 工具提供数据库上下文访问能力。
Revvy项目中的天气信息工具MCP服务器,为LLM客户端提供日本天气警报和全球天气预报工具。
Troubleshoot MCP Server 是一个基于 Model Context Protocol 的后端应用,专注于为 AI 模型提供 Kubernetes 支持包的上下文信息和故障排除能力。
演示了基于Model Context Protocol的服务器实现,提供通过Stdio和SSE协议与LLM客户端交互的示例,包括工具注册和执行。
SolidPilot MCP Server 是一个基于 MCP 协议的服务器,专注于为 SolidWorks 提供上下文服务,支持 LLM 理解和操作 SolidWorks 设计。
基于Next.js构建的AI聊天机器人平台,集成了Model Context Protocol (MCP) 功能,提供资源访问和工具执行能力。
Base Builder MCP 是一个 MCP 服务器,旨在为 LLM 客户端提供 Base 文档的访问能力,辅助开发者在 Base 区块链上进行构建。
FlexPrice MCP Server是一个为AI Agent设计的MCP服务器,可以高效访问FlexPrice的发票和客户数据。
基于MCP协议,为LLM客户端提供访问Google Cloud Healthcare API和公共医疗研究API的医疗健康工具。
基于AWS Lambda的MCP服务器实现,通过Server-Sent Events (SSE) 提供实时的上下文服务,支持工具、资源和Prompt管理。
一个基于MCP协议实现的MySQL数据库操作服务器,支持通过工具执行SQL查询、获取表结构信息等,为LLM应用提供数据库交互能力。
基于 Azure Functions 构建的 Untappd MCP 服务器,为 LLM 应用提供啤酒信息查询等上下文服务。
基于Langchain和NestJS构建的MCP服务器示例,演示了如何使用MCP协议提供上下文信息和工具能力。
封装Google Gemini API的MCP服务器,通过标准化的MCP工具接口,为LLM客户端提供Gemini模型的各项能力。
连接 QA Sphere 测试管理系统的 MCP 服务器,为 LLM 提供测试用例和项目信息,实现智能测试辅助。
Wiki-RAG MCP服务器基于Model Context Protocol,为LLM应用提供Mediawiki知识库的上下文服务,支持资源访问、工具调用和Prompt模板定制。
Nerve Agent Server是一个用于运行LLM Agent并将其功能作为MCP兼容服务对外提供的平台,方便与MCP客户端集成。
一个基于 Python 开发的 MCP 服务器,旨在为 LLM 应用提供便捷的 MediaWiki 知识库访问能力,支持资源管理、数据访问和 Prompt 模板。
Codex MCP Server是一个为LLM应用提供区块链数据上下文服务的工具,通过MCP协议提供Codex平台丰富的链上数据查询和分析能力。
基于MCP协议的Infactory API桥接服务,为LLM提供访问和操作Infactory平台数据的能力。
PostgreSQL MCP Server为AI Agent提供数据库访问和上下文信息,支持多数据库连接、模式发现、查询工具和扩展信息。
本仓库提供了一系列示例性的 MCP 服务器,演示了如何为 LLM 应用构建提供上下文信息和外部工具支持的后端服务。
一个MCP服务器,允许LLM客户端通过Wikipedia API检索和搜索维基百科内容,作为LLM的上下文信息来源。
Agentical是一个Python框架,用于构建基于MCP协议的LLM应用,提供工具集成、多服务器连接和灵活配置等功能。
MCP Java SDK 针对Java 8和Spring Boot 2.x环境优化,提供基于Spring WebMVC的MCP服务器实现,简化LLM应用后端开发。
一个基于MCP协议的服务器,用于集成Microsoft Teams,提供消息读取、发送和成员管理等工具,为LLM应用提供Teams上下文服务。
Chuck Norris MCP Server是一个实验性的工具,通过 Model Context Protocol (MCP) 接口,为大型语言模型 (LLM) 提供增强能力 (Jailbreak) 的 Prompt。
ChatDM是一个基于Spring AI MCP的D&D游戏辅助工具,为LLM客户端提供游戏上下文、骰子、预言等功能,提升AI游戏体验。
基于Model Context Protocol构建的MCP服务器,连接Azure Cosmos DB,提供产品搜索和订单查询等上下文信息服务,支持LLM客户端通过工具调用访问Cosmos DB数据。
基于Symfony框架构建MCP服务器,专注于通过STDIO和SSE协议向LLM客户端提供工具能力。
一个基于Model Context Protocol的服务器,通过工具提供漫威漫画和角色数据的访问能力,并支持生成HTML展示页面。
为Cursor IDE提供工具和服务的MCP服务器,集成到Ultra Wide Turbo Workspace中,支持工具列表和README文件读取。
轻量级 Javascript MCP 服务器及客户端 SDK,专注于 SSE 传输,简化 AI Agent 上下文服务搭建。
一个基于Model Context Protocol协议的PostgreSQL数据库MCP服务器,为AI Agent提供数据库上下文访问能力。
本服务器作为MCP应用后端,为AI客户端提供Limitless Pendant记录的Lifelog数据访问和搜索功能,支持通过标准化的MCP协议与Claude等AI工具集成。
基于Spring AI和AWS Bedrock构建的MCP服务器示例,演示了如何管理资源、执行工具并与LLM进行交互。
Mattermost MCP 服务器是一个基于 Model Context Protocol (MCP) 的应用后端,旨在将 Mattermost 平台的消息数据作为上下文信息,以标准化的方式提供给 LLM 客户端。
一个MCP服务器,为LLM应用提供Oracle数据库的上下文信息,支持智能数据库schema查询和管理,优化AI与大型Oracle数据库的交互。
OpenAgents MCP服务器是为AI Agent设计的远程上下文服务,集成GitHub工具,提供资源管理、工具调用和Prompt模板等功能。
基于 OpenAPI 规范,将 Twilio API 转换为 Model Context Protocol (MCP) 服务器,为 LLM 应用提供 Twilio API 工具。
Smithery MCP Server Framework 是一个用于构建 Model Context Protocol (MCP) 服务器的 Typescript 框架,专注于简化工具、资源和 Prompt 的集成与管理。
Croft MCP Server 是一个基于 Laravel 框架构建的 MCP 服务器,旨在为 AI 编程助手提供上下文信息和工具支持。
OpenResponses API 统一了多种 LLM 提供商的接口,并集成了工具支持,简化了 LLM 应用开发,提升了应用功能。
基于Spring AI框架构建的MCP服务器示例,用于演示如何为LLM应用提供上下文服务,包括资源管理、工具调用和Prompt模板渲染等核心功能。
一个为 Ashra 提供 Prompt 创建功能的 MCP 服务器,允许 LLM 客户端通过标准协议调用 Ashra API 创建 Prompt。
基于FastMCP框架,集成Google Chat API的MCP服务器,提供访问和管理Google Chat消息的功能。
本仓库提供了一套示例脚本,用于在 Morph Cloud 上快速搭建和部署 Model Context Protocol (MCP) 服务器的开发环境,并包含客户端示例。
基于Kubernetes和GitOps的MCP服务器,利用Claude AI提供智能运维和故障排查能力。
一个连接 Dust.tt 智能体平台的 MCP 服务器,通过 MCP 接口对外提供 Dust AI 智能体的能力。
通过Model Context Protocol,为LLM应用提供Oracle数据库的上下文信息和SQL执行能力。
该项目是一个 MCP 服务器,用于查询 World Mini App 文档,并提供文档全文资源和文档检索工具,方便 LLM 应用集成 World Mini App 相关知识。
Dev Kit 是一个 MCP 服务器,旨在通过集成 Jira、Confluence、GitLab 和 GitHub 等开发工具,增强 AI 模型的能力,实现开发工作流程的自动化。
一个基于Model Context Protocol的服务器,用于连接和查询Oracle数据库,为LLM应用提供数据访问能力。
连接GitHub Enterprise的MCP服务器,为LLM应用提供代码仓库、议题和工作流等上下文信息访问能力。
基于FastAPI构建的OWL多智能体系统后端,提供RESTful API和WebSocket接口,用于上下文服务。
Beam MCP Server是一个基于Apache Beam构建的MCP服务器,旨在为LLM应用提供跨多Runner环境的数据管道管理能力。
Archon MCP服务器为AI IDE提供智能体构建和优化服务,支持模型上下文协议,实现资源、工具和Prompt模板的标准化访问。
Kom MCP Server基于Kom Kubernetes操作库,通过Model Context Protocol为LLM客户端提供Kubernetes资源上下文信息和管理工具。
DevOps MCP Servers仓库为LLM应用提供了一系列与DevOps工具集成的MCP服务器实现方案,助力自动化运维。
通过MCP协议为LLM提供GitHub Pull Request信息,包括文件、差异、评论和评审等详细数据。
Podman Desktop Agent 扩展在 Podman Desktop 中集成并管理 MCP 服务器,为 LLM 应用提供容器环境的上下文服务。
该仓库为 Cursor AI 提供了 PostgreSQL 和 Obsidian 的 MCP 服务器实现,扩展了其与数据库和本地笔记的交互能力。
一个简化的MCP服务器,连接Ollama LLM和GitHub API,实现用户身份验证和声明可用功能,为LLM提供初步的GitHub上下文访问能力。
一个轻量级的框架,用于构建和编排基于模型上下文协议(MCP)的AI Agent,支持创建分层 Agent 系统,实现任务委派、能力共享和协作。
基于Quarkus和LangChain4j构建的简易Agentic应用MCP服务器,集成多种工具,提供上下文服务。
Agent8 MCP Server是为Agent8 SDK开发提供上下文支持的后端服务,实现了MCP协议,提供Prompt模板和工具注册能力。
Cyberon 是一个基于 Flask 的 Web 应用程序,同时也是一个 Model Context Protocol (MCP) 服务器,用于探索和可视化知识本体,并为 LLM 客户端提供上下文服务。
Backlog MCP Server 是一个基于 Model Context Protocol 的服务器实现,它允许 LLM 客户端通过预定义的工具访问 Backlog 项目管理系统中的 Issues 和 Wikis 信息,实现与 Backlog 数据的交互。
为AWS Lambda函数提供MCP服务器基础设施,支持SSE协议,简化LLM应用在AWS环境中的上下文服务构建。
为AI助手提供Oracle数据库结构上下文的MCP服务器,支持高效缓存、检索和搜索数据库schema信息。
一个基于 Model Context Protocol 的服务器,为 AI 助手提供访问 Spotify API 的能力,支持音乐搜索、艺术家和曲目信息查询,以及用户个性化音乐数据获取。
基于Spring AI的Kotlin MCP服务器示例,展示如何构建符合MCP协议的后端应用,为LLM客户端提供上下文服务。
一个基于 Model Context Protocol 的服务器,提供访问 GitHub 资源和操作 GitHub 的工具,例如搜索仓库、获取仓库信息、创建 Issue 等。
Atoma SDK 仓库不仅提供Typescript SDK,还能作为MCP服务器运行,为AI应用提供模型访问和工具调用能力。
基于Model Context Protocol的服务器,连接Confluent Cloud,为LLM提供Kafka数据访问和管理工具。
基于官方MCP SDK的最小化服务器实现,提供工具注册和执行能力,适用于快速搭建和学习MCP服务器。
基于PHP实现的MCP服务器,提供Prompt模板、Tool工具和Resource资源的管理与访问功能,为LLM应用提供上下文服务。
基于MCP协议构建的Oraichain区块链工具服务器,为LLM应用提供访问Oraichain网络和执行相关操作的能力。
本仓库提供了一个使用FastMCP库构建的MCP服务器示例,用于将CustomGPT的功能集成到支持MCP协议的LLM客户端,例如Claude。
该项目是一个基于Model Context Protocol (MCP) 的服务器集合,提供多种实用工具,如简单的计算、Google地图服务以及CSV/XLSX文件处理等,旨在为LLM应用提供丰富的外部能力。
MCP AI Server是一个应用后端,通过标准化的JSON-RPC协议向LLM客户端提供上下文信息和功能,包括资源管理、工具执行和Prompt模板渲染等核心MCP协议功能。
一个基于Model Context Protocol的服务器,允许LLM客户端(如Claude)安全访问和查询Excel文件中的数据。
mcp-go 是一个用 Go 语言编写的 Model Context Protocol (MCP) 服务器实现,旨在简化 LLM 应用与外部数据源和工具的集成。
Authed MCP服务器集成方案,为AI Agent提供安全认证的Model Context Protocol服务。
Composio MCP 提供生产就绪的工具集,用于构建 AI Agent,连接到 MCP 服务器以获取上下文和工具能力。
MyManus 是一个本地、安全的 Agentic 环境,基于 Model Context Protocol (MCP) 构建,无需编码即可为 LLM 提供资源、工具和 Prompt 支持。
MINDY MCP 服务器是一个基于 Model Context Protocol 的 PostgreSQL 实现,为 AI 模型提供资源管理和上下文数据访问能力,支持 Supabase 数据库。
Hyper MCP是一个基于WebAssembly和OCI Registry插件系统的模型上下文协议(MCP)服务器,旨在为LLM应用提供可扩展的上下文服务。
基于Docker的MCP服务器,支持Markdown提示词和Docker化工具,为LLM应用提供上下文服务。
基于Model Context Protocol的服务器端模版,提供IP地址查询工具和资源,方便LLM应用集成外部功能。
SillyTavern MCP Server插件,为LLM客户端提供资源、工具和Prompt模板管理功能。
该仓库提供了一个基于FastMCP框架实现的MCP服务器,集成了Perplexity AI的搜索功能,允许LLM客户端通过调用工具进行网页搜索,并支持多种搜索模式和模型选择。
Satellaite MCP Server是一个为LLM客户端提供Satellaite API资源和工具的后端服务,通过Model Context Protocol标准协议进行通信,支持访问链上合约信息和执行合约操作。
mcp-server-salesforce 是一个 MCP 服务器实现,提供笔记的存储、总结和添加功能,可作为与 Salesforce 集成的基础。
mcp-kotlin-sdk仓库是基于Kotlin实现的Model Context Protocol (MCP) SDK,它不仅提供了构建MCP客户端的能力,也包含了创建MCP服务器的功能,旨在帮助开发者便捷地构建和部署MCP应用。
mcp.rs 是一个用 Rust 语言实现的高性能 Model Context Protocol (MCP) 服务器,旨在为 AI 应用提供标准化的上下文和资源访问能力。
该仓库是基于Server-Sent Events (SSE) 的MCP服务器示例实现,旨在Netlify Edge Functions上部署,提供资源、工具和Prompt管理等核心MCP功能。
Prompt Decorators 提供了一个标准化的框架,用于增强和管理大型语言模型 (LLM) 的 Prompt,包含 MCP 服务器实现,可与 Claude Desktop 等 MCP 客户端集成。
基于Model Context Protocol的Google日历MCP服务器,允许AI应用标准化访问和操作Google日历数据。
x-mcp-server是一个MCP服务器,允许LLM客户端通过工具与X平台(原Twitter)进行交互,实现推文发布、用户数据获取等功能。
MCP-server-template 是一个用于构建 Model Context Protocol (MCP) 服务器的综合模板,基于 TypeScript/Node.js,提供标准化结构和最佳实践。
该项目是一个MCP服务器模板,用于创建可为Cursor IDE提供网页抓取和情绪检测等工具的自定义MCP服务器。
该仓库提供预构建的MCP服务器,用于将GitHub和Puppeteer功能集成到LLM应用中,扩展LLM的能力边界。
将Home Assistant智能家居系统接入Model Context Protocol (MCP) 的服务器,允许LLM客户端控制和查询智能家居设备。
mcp-wasm 是一个基于 WebAssembly 的 MCP 服务器实现,旨在提供更安全、可移植的上下文服务,通过沙箱环境增强安全性,并支持多种编程语言。
基于Model Context Protocol的服务器模板,使用TypeScript开发,提供工具注册、调用和测试功能,帮助开发者快速构建MCP后端应用。
MCPheonix 是一个基于 Elixir Phoenix 框架的 MCP 服务器实现,提供资源管理、工具调用和实时事件流等功能,旨在为 AI 模型提供统一的上下文交互接口。
Claude Code Python Edition 是一个基于 Model Context Protocol (MCP) 的应用,它不仅是一个强大的 LLM 驱动的 CLI 软件开发工具,同时也能作为 MCP 服务器为 Claude Desktop 等客户端提供上下文服务,并具备成本管理和实时工具可视化等增强功能。
Starbridge是一个MCP服务器,旨在桥接Claude桌面应用与Web、Google及Atlassian工作区,提供资源访问、工具调用和Prompt模板服务。
基于Vercel的MCP服务器实现,提供资源、工具和Prompt模板管理,通过SSE与客户端通信,支持LLM应用构建。
WASImancer是一个基于Node.js开发的MCP服务器,创新性地使用WebAssembly插件扩展工具功能,提供高性能和安全的上下文服务。
easy-mcp 是一个使用 TypeScript 开发的 MCP 服务器框架,旨在简化资源、工具和 Prompt 的定义与管理。
Vercel SDK作为MCP服务器,将Vercel平台功能以工具形式提供给LLM应用,方便LLM客户端调用Vercel API,实现自动化和集成。
FastMCP是一个TypeScript框架,用于快速构建支持Model Context Protocol (MCP) 的服务器,简化工具、资源和Prompt的定义与管理,并支持多种传输协议。
FastMCP是一个TypeScript框架,用于快速构建MCP服务器,支持工具、资源和Prompt定义,并提供多种传输协议和实用工具。
brave-search-mcp 是一个 MCP 服务器,它利用 Brave Search API 提供网页搜索工具,使 LLM 能够访问和利用最新的网络信息。
基于Model Context Protocol的Unomi服务器,通过Apache Unomi管理用户画像,为LLM客户端提供用户上下文信息和profile管理工具。
连接 LlamaCloud 知识库的 MCP 服务器,通过工具提供知识库信息检索功能,为 LLM 应用提供上下文数据。
一个简单的MCP服务器,用于管理笔记资源,提供笔记总结 Prompt,并提供添加、获取、列出笔记以及管理链式MCP服务器的工具。
该项目是一个基础的MCP服务器示例,使用TypeScript SDK实现,演示了如何通过stdio传输协议提供资源列表和读取功能,适用于学习和理解MCP服务器的基本构建。
Deno 2 Playwright MCP Server是一个基于Model Context Protocol的服务器,它利用Playwright库为LLM提供浏览器自动化能力,例如网页导航、截图和执行JavaScript。
将Home Assistant智能家居平台的功能通过Model Context Protocol (MCP) 协议转换为标准化的上下文服务,使LLM应用能够安全、可扩展地访问和控制Home Assistant。
一个演示性质的MCP服务器,展示了如何使用Model Context Protocol SDK构建工具服务,可与Claude Desktop等MCP客户端集成。
本仓库提供了一个基于Python和MCP库的Claude MCP服务器开发指南和基础实现示例,帮助开发者快速搭建可与Claude客户端集成的MCP服务器。
paloalto-mcp-servers项目为大语言模型应用提供了与Palo Alto Networks防火墙及服务集成的MCP服务器实现,支持LLM通过MCP协议安全可控地访问和管理Palo Alto Networks环境。
一个MCP服务器,通过 Perplexity AI API 提供联网搜索功能,并以工具形式暴露给LLM客户端。
该项目是一个Model Context Protocol (MCP) 服务器和客户端的示例实现,演示了如何使用TypeScript SDK构建基于MCP协议的资源访问服务。
SmallCloud MCP Server是一个演示项目,展示了如何为Claude Desktop构建一个基于Model Context Protocol (MCP) 的服务器,提供了一个简单的“hello world”工具作为示例。
mcp-elastic-memory仓库是一个基于Elasticsearch构建的可扩展知识图谱MCP服务器实现,为LLM应用提供结构化知识存储、检索和管理能力。
privateGPT MCP服务器桥接MCP客户端和privateGPT API,提供安全可扩展的上下文服务框架。
Researcher MCP Server是一个研究型MCP服务器,集成了Perplexity AI,旨在提升研究和文档编写效率,提供增强的上下文建模能力。
Business Central MCP Server是一个为Cursor编辑器提供Business Central项目开发规范和上下文信息的服务器,支持静态规则和动态规则管理,并提供多种部署选项。
该项目是一个基于 Model Context Protocol (MCP) 的服务器示例,它提供工具以便 LLM 客户端调用 Mistral AI 的聊天模型,支持文本和图像输入。
该仓库提供了一个基于Node.js的最小化MCP服务器实现,用于上下文管理和工具执行,并包含一个集成了Langchain和Ollama的客户端示例。
Eagle.cool 仓库实现了一个简单的 MCP 服务器,用于与 Eagle 应用程序交互,目前提供检查 Eagle 应用连接状态的工具,可与 Claude Desktop 等 MCP 客户端配合使用。
一个简单的MCP服务器,提供网页内容抓取和服务器状态查询工具,专为Cursor IDE集成设计。
ISOPlanner MCP服务器是一个应用后端,它通过 Model Context Protocol (MCP) 协议,将 ISOPlanner 平台的风险管理数据和功能以资源和工具的形式提供给 LLM 客户端,用于构建智能风险分析和规划应用。
RFK Jr Gateway 是一个 MCP 服务器实现,它充当 MCP 客户端和 RFK Jr 端点之间的桥梁,将 RFK Jr 端点暴露为 MCP 资源和工具,并支持 Prompt 定制。
HackerNews API MCP服务器是一个简单的后端应用,它通过工具向LLM客户端提供Hacker News的数据访问能力,并包含一个Prompt模板用于故事信息查询。
该项目是一个MCP服务器,用于将 Headless Agents API 集成到 Claude Desktop 等 MCP 客户端,允许通过 `call_agent` 工具调用 Headless Agents 的功能。
该项目是一个MCP服务器,旨在为Claude.ai等LLM应用提供访问和解析Substack平台文章内容的功能,扩展LLM的上下文信息来源。
一个基于Model Context Protocol (MCP) 的服务器,提供从Web URL抓取文档并转换为Markdown格式的功能,方便LLM获取文档内容。
Browser Use Server是一个MCP服务器,允许LLM客户端通过工具调用自动化执行网页浏览操作,如截图、获取HTML、执行JS和获取控制台日志。
Deepseek-Claude MCP服务器结合DeepSeek R1的推理能力和Claude 3.5 Sonnet的生成能力,通过OpenRouter提供上下文增强的LLM服务。
Attio MCP Server 是一个连接 Attio CRM 和大语言模型的桥梁,通过 Model Context Protocol (MCP) 协议,使 LLM 客户端能够安全访问和操作 Attio CRM 中的公司数据和笔记功能。
该项目是一个MCP服务器,通过集成 Apache Unomi,为 Claude 等 LLM 应用提供用户画像管理和上下文维护能力。
Confluence MCP服务器是一个应用后端,它允许LLM客户端通过Model Context Protocol访问和检索Confluence知识库中的页面和博客文章内容。
此MCP服务器集成了Perplexity AI API,提供具有预定义和自定义提示模板的聊天补全功能,适用于文档生成、安全分析和代码审查等多种任务。
MCP Server Starter Template:一个用于构建MCP服务器的生产就绪型模板,使用TypeScript编写,支持工具注册和Claude Desktop集成。
该仓库提供了一系列 MCP 服务器的参考实现,演示了如何使用 Typescript 和 Python SDK 构建能够为 LLM 提供工具和数据访问能力的后端服务。
DigitalFate是一个企业级AI Agent框架,提供LLM调用、工具集成和任务编排能力,并兼容MCP协议,用于构建可扩展的LLM应用后端服务。
DigitalFate是一个企业级AI Agent框架,通过MCP工具集成、任务编排和多LLM支持,简化LLM应用开发和部署,提供可扩展和安全的上下文服务。
基于TypeScript构建的MCP服务器实验场,提供加法计算和HTTPBin JSON数据获取工具,用于学习和测试MCP服务器与LLM客户端的集成。
IaC Memory MCP Server为Claude AI提供IaC组件的持久化内存,支持Terraform和Ansible资源的版本跟踪和关系映射,增强AI在IaC领域的应用能力。
一个简单的MCP服务器,通过Perplexity AI提供网页搜索工具,增强LLM客户端的上下文信息获取能力。
Quarkus MCP Server是一个基于Quarkus框架的扩展,用于简化Model Context Protocol (MCP) 服务器的开发,帮助开发者轻松构建LLM应用的后端服务,实现与外部数据源和工具的无缝集成。
SingleStore MCP Server 是一个 MCP 服务器,允许 LLM 客户端连接 SingleStore 数据库,并提供查询、数据管理和模式探索等工具。
Tavily Search MCP Server 是一个为LLM应用设计的后端服务,它通过集成 Tavily Search API 提供强大的网页搜索功能,使LLM能够访问和利用最新的网络信息。
RAT MCP Server 是一个基于 Model Context Protocol 的服务器,它结合 DeepSeek R1 的推理能力和 Claude 3.5 Sonnet 的生成能力,通过 OpenRouter 提供增强的 AI 对话服务。
Eunomia MCP Server是一个用于编排和管理多个MCP服务器的开源项目,并集成数据治理能力。
Perplexity AI MCP Server 是一个基于 Model Context Protocol 的服务器实现,它集成了 Perplexity AI 的 API,为 LLM 应用提供强大的搜索工具。
基于 Model Context Protocol (MCP) 协议实现的 Phabricator 服务器,允许 LLM 客户端通过标准接口获取 Phabricator 任务信息。
该MCP服务器通过 Pera1 服务连接 GitHub 代码仓库,为 Claude 等 LLM 应用提供 GitHub 代码检索工具。
LlamaCloud MCP Server是一个连接到LlamaCloud托管索引的MCP服务器,提供知识库查询工具,为LLM应用提供上下文信息。
Expert Server是一个基于Model Context Protocol的服务器,利用Claude AI提供API文档的智能查询和API查询生成工具,帮助用户更便捷地理解和使用API。
MCP Server Starter是一个基于TypeScript的模板,用于快速构建MCP服务器,方便AI智能体与各种工具和数据源集成。
该项目是一个 MCP 服务器,通过 OpenRouter.ai 统一接口,为 LLM 应用提供对多种 AI 模型的高效访问和管理能力。
一个基于 Model Context Protocol 的服务器,提供通过 Perplexity API 进行网页搜索的工具,使 LLM 应用能够获取最新的网络信息。
Kagi MCP 服务器通过 Model Context Protocol 协议为 LLM 客户端提供网页搜索工具,使其能够检索最新的网络信息。
使用 Playwright 驱动的 MCP 服务器,为 LLM 提供网页浏览、交互和信息获取能力,支持浏览器自动化操作。