提供与 DigitalOcean API 集成的 MCP 服务器,使大型语言模型 (LLM) 能够管理 DigitalOcean 云资源并执行操作。
Nango是一个为SaaS产品和AI Agent提供API集成基础设施的平台,支持500+API,并可将集成暴露为MCP服务器进行工具调用。
一个基于Model Context Protocol (MCP) 构建的AI应用模板,提供功能强大的AI工具、API集成、数据库和协作能力,可部署到Cloudflare Workers。
基于Model Context Protocol,将Anytype API转换为工具,赋能AI助手自然语言交互。
一个基于MCP协议的服务器,连接LLM客户端与Bitbucket Cloud/Server API,提供代码仓库和拉取请求等信息及操作能力。
Nextr4y MCP服务器模式,为LLM客户端提供Next.js网站扫描工具,支持远程调用和集成,例如Cursor IDE。
基于Apidance API的Twitter MCP服务器,为LLM应用提供Twitter数据访问和操作工具。
Teamtailor MCP Server 提供对 Teamtailor API 的集成,允许通过 MCP 协议调用 Teamtailor 的候选人数据。
此仓库旨在将任何OpenAPI规范转换为可用的MCP服务器,方便LLM客户端通过MCP协议访问和利用OpenAPI定义的API功能。
为AI助手提供访问和管理KubeBlocks Cloud资源的标准MCP接口,实现云资源自动化管理和数据分析。
基于 OpenAPI 和自定义工具的 MCP 服务器实现,为 LLM 提供工具调用和 Prompt 管理能力。
基于MCP协议的服务器,提供Salesforce Agentforce API的工具,使LLM能够与Salesforce Agentforce智能客服系统集成。
为LLM客户端提供MongoDB Atlas数据库的访问工具和认证功能,通过MCP协议连接,支持集群和项目管理。
Notion API MCP服务器是一个基于Model Context Protocol的后端实现,允许LLM客户端通过工具调用访问和操作Notion API。
TweetBinder MCP Server 允许 Claude 等 MCP 客户端访问 TweetBinder 的 Twitter 数据分析功能。
演示如何使用MCP协议构建提供天气预报资源的服务器,并集成OpenTelemetry进行链路追踪。
基于 OpenAPI 规范,将 Twilio API 转换为 Model Context Protocol (MCP) 服务器,为 LLM 应用提供 Twilio API 工具。
一个为 Ashra 提供 Prompt 创建功能的 MCP 服务器,允许 LLM 客户端通过标准协议调用 Ashra API 创建 Prompt。
基于FastMCP框架,集成Google Chat API的MCP服务器,提供访问和管理Google Chat消息的功能。
一个演示如何将ActionKit的Slack actions集成到Claude Desktop的MCP服务器,扩展LLM的功能。
该工具可以将 OpenAPI/Swagger 规范转换为 MCP 服务器实现,方便快速为现有API构建AI Agent接口。
连接 Claude Desktop 与 ClickFunnels 2.0 的 MCP 服务器,让 AI 可以访问和操作您的销售和营销数据。
本仓库提供了基于MCP协议的服务器实现示例,用于获取LinkedIn个人资料和天气信息,演示了如何利用MCP框架构建工具型后端服务。
Shopify Python MCP Server 是一个用于连接 Shopify API 的 MCP 服务器,允许 LLM 客户端通过工具管理 Shopify 商店中的商品信息。
一个基于Model Context Protocol的服务器,为AI助手提供使用Climatiq API进行碳排放计算的工具。
基于Fused UDF构建的MCP服务器,旨在简化数据科学家为Claude等LLM配置工具和数据访问的流程。
一个基于Model Context Protocol的服务器原型,专注于通过Microsoft Graph API提供用户Profile数据访问和管理能力,例如读取用户技能、兴趣等信息。
本仓库实现了基于Model Context Protocol (MCP) 的楽天トラベルAPI服务器,允许LLM通过MCP协议调用楽天API进行酒店搜索。
TeamRetro MCP Server 是一个非官方的 MCP 服务器,用于将 TeamRetro 平台的功能集成到支持 Model Context Protocol 的 LLM 应用中,目前主要提供团队信息查询工具。
Automattic ai-experiments仓库的WooCommerce MCP服务器,通过工具化的API,使AI助手能够以自然语言管理和操作WooCommerce商店的各项功能。
该项目是一个MCP服务器,通过工具形式将QuickBooks Time API的功能提供给LLM客户端,实现时间跟踪数据的访问和报表生成。
Contentful MCP Server是一个基于Model Context Protocol的应用后端,集成了Contentful内容管理API,为LLM提供内容管理能力,包括内容条目、资产、内容类型和空间的CRUD操作。
该项目是一个实用工具库,用于将 OpenAPI 规范转换为 MCP 工具,旨在加速基于 OpenAPI 规范构建 MCP 服务器的开发过程,专注于工具能力的快速集成。
mcp-nokotime 是一个 MCP 服务器,它将 Noko 时间跟踪服务集成到 Claude Desktop 等 MCP 客户端,允许用户通过自然语言指令管理 Noko 中的时间和项目数据。
Canvas MCP Server 是一款允许AI助手(如Claude)与Canvas LMS交互的MCP服务器,提供课程、公告、评分标准、作业和学生数据管理工具。
一个MCP服务器,通过Pollinations.ai API提供图像和文本生成功能,允许AI模型通过MCP协议调用图像和文本生成工具,轻松集成图像和文本生成能力。
Worldpay MCP服务器是一个应用后端,通过Model Context Protocol (MCP) 标准化接口,为LLM客户端提供 Worldpay 支付API的上下文信息和功能,包括支付处理、查询和代码生成等工具。
一个MCP服务器,通过工具调用GitHub API,支持创建和更新GitHub仓库,包括仓库名、描述、标签和网站等信息。
ISOPlanner MCP服务器是一个应用后端,它通过 Model Context Protocol (MCP) 协议,将 ISOPlanner 平台的风险管理数据和功能以资源和工具的形式提供给 LLM 客户端,用于构建智能风险分析和规划应用。
基于Model Context Protocol,此仓库提供了一个集成Google Gemini Pro模型的MCP服务器,允许LLM客户端调用Gemini Pro的文本生成能力。
基于MCP协议,连接Canvas LMS平台的服务器,提供课程、作业、学生管理等工具,方便LLM应用访问和操作Canvas LMS系统。
Firecrawl MCP服务器提供网页抓取和结构化数据提取工具,通过MCP协议与LLM客户端交互,赋能LLM应用从网络获取信息的能力。
Targetprocess MCP服务器,为AI助手提供与Targetprocess项目管理平台交互的工具,实现实体搜索、创建、更新和数据模型探索等功能。
该项目是一个MCP服务器,用于将 Headless Agents API 集成到 Claude Desktop 等 MCP 客户端,允许通过 `call_agent` 工具调用 Headless Agents 的功能。
此项目是一个MCP服务器实现,旨在通过Model Context Protocol (MCP) 协议,为Claude桌面应用提供 Claude API 的集成能力,支持自定义系统提示、会话管理等高级功能,扩展了Claude桌面应用的功能。
vercel-mcp是一个MCP服务器,提供工具以查询和检索Vercel平台上的部署信息,方便LLM应用集成Vercel的部署管理能力。
KoboldCPP-MCP-Server 是一个 MCP 服务器,它将 KoboldAI 的强大功能(如文本生成、聊天和图像生成)通过 Model Context Protocol (MCP) 协议暴露给客户端应用。
Holaspirit MCP Server为AI助手提供标准化的MCP接口,使其能够通过工具访问和操作Holaspirit组织的数据,实现与Holaspirit API的集成。
Productboard MCP服务器,通过MCP协议将Productboard API集成到LLM工作流中,提供产品数据查询功能。
该项目是一个MCP服务器,能够将OpenAPI规范转换为MCP协议的工具 (Tools) 暴露给LLM客户端,使得LLM可以通过MCP协议调用和利用RESTful API。
该仓库提供了一系列 MCP 服务器的参考实现,演示了如何使用 Typescript 和 Python SDK 构建能够为 LLM 提供工具和数据访问能力的后端服务。
Toolhouse MCP服务器是一个桥接工具,它允许LLM客户端通过MCP协议访问Toolhouse平台提供的各种工具,实现扩展LLM的功能。
Waldur MCP Server是一个为Claude Desktop设计的MCP服务器,它连接到Waldur平台API,为LLM应用提供访问Waldur数据和执行操作的能力,例如查询数据库、列出客户、项目、资源以及发送用户邀请等。
Perplexity AI MCP Server 是一个基于 Model Context Protocol 的服务器实现,它集成了 Perplexity AI 的 API,为 LLM 应用提供强大的搜索工具。
Upstash MCP Server将Claude Desktop等MCP客户端连接到Upstash开发者API,使用户可以通过自然语言管理Upstash数据库和服务。
此MCP服务器通过“chat”工具,将OpenAI兼容的聊天API(如OpenAI、Perplexity)集成到MCP客户端(如Claude),扩展其聊天能力。
Transistor MCP Server是一个连接Transistor.fm播客平台的MCP服务器,通过工具集提供播客节目、音频分析和内容管理功能,方便LLM客户端集成和调用。
mcp-flowise 是一个MCP服务器,它将Flowise的Chatflows和Assistants作为工具桥接到LLM客户端,实现LLM对Flowise功能的访问和利用。
Perplexity Chat MCP Server是一个基于Python的MCP服务器,通过工具集成Perplexity API,为LLM客户端提供问答、聊天和历史记录管理功能。