一个基于Express和Netlify Serverless Functions构建的MCP服务器,用于演示和测试Model Context Protocol用户界面(MCP-UI)组件和交互。
ACI.dev 是一个开源平台,通过统一的 MCP 服务器和 Python SDK,为 AI Agent 提供安全、可扩展的工具集成和上下文服务。
基于AWS Lambda的MCP服务器,通过工具提供GitHub代码仓库的各项操作能力,如文件读写、Issue和PR管理等。
基于 Model Context Protocol 构建的 MCP 服务器,提供访问 Acurast 资源的接口,并支持脚本部署和处理器信息查询等工具。
基于AWS Lambda的简易MCP服务器,通过Streamable HTTP协议与客户端通信,提供工具调用功能。
YoMo 是一个开源框架,用于构建可伸缩的超快速 AI 代理,通过 LLM Function Calling 作为 MCP 服务器管理资源和工具。
基于FastMCP的serverless多租户扩展实现,专为Vercel设计,利用Redis持久化会话状态,并支持SSE实时通信。
基于AWS Lambda的Streamable HTTP MCP服务器示例,演示了工具调用和实时响应的实现。
将基于stdio的MCP服务器封装为AWS Lambda函数,实现可扩展的Serverless上下文服务。
基于 Azure Functions 构建的 MCP 服务器,为 L2C CTFs 实验环境提供上下文服务和工具调用能力。
基于 Azure 函数和 API 管理构建的远程 MCP 服务器,提供工具注册、执行和安全访问控制能力。
EdgeOne Pages MCP 服务器允许用户通过 MCP 协议将 HTML 内容快速部署到 EdgeOne Pages,并生成公开访问 URL。
基于AWS Lambda的轻量级MCP服务器,通过Serverless Framework快速部署,提供工具注册和执行能力,简化LLM应用上下文管理。
基于 Azure Functions 的 MCP 服务器快速启动模板,帮助开发者轻松构建和部署云端 LLM 上下文服务。
用于在 AWS Lambda 函数中构建 MCP 服务器的 Middy 中间件,简化与 API Gateway 的集成,支持基于 HTTP 的 MCP 协议。
基于 MCP 协议,通过 Cloudflare Worker 调用 Replicate AI 模型生成图像的后端服务。
基于Model Context Protocol协议,提供开箱即用的云原生图像生成和信息检索工具,并支持快速扩展自定义功能。
基于Firebase的MCP服务器实现,提供Firestore数据库操作工具,支持本地Node.js和Cloudflare Workers两种运行模式,为LLM应用提供上下文数据访问能力。
Agentics Edge Functions提供了一个基于Supabase Serverless平台的Model Context Protocol (MCP) 服务器实现,用于管理AI Agent的资源和工具。
该仓库提供了一个基于Cloudflare Workers和Durable Objects的MCP服务器参考实现,专注于通过WebSocket提供数学计算工具服务。
基于 Model Context Protocol 协议,为 LLM 提供 TiDB Serverless 数据库访问能力的后端服务。
基于Vercel的MCP服务器实现,提供资源、工具和Prompt模板管理,通过SSE与客户端通信,支持LLM应用构建。
create-mcp 是一个 CLI 工具,用于快速搭建和部署在 Cloudflare Workers 上的 MCP 服务器,方便用户为 Cursor 等 LLM 客户端轻松创建和管理工具。
mcp-workers-ai 是一个为 Cloudflare Workers 环境设计的 MCP 服务器 SDK,专注于为 LLM 提供工具调用能力。
mcp-workers-ai 是一个用于 Cloudflare Workers 的 MCP 服务器 SDK,旨在简化工具的加载和调用,方便 LLM 客户端通过 MCP 协议与之交互,实现工具扩展。
Modal MCP Server 是一个允许LLM客户端通过MCP协议在Modal云平台部署和调用Python应用的后端服务。
Neon MCP Server是一个轻量级的MCP服务器,旨在通过工具化的方式,使LLM客户端能够便捷地管理和操作Neon数据库的各项服务,如项目、分支和数据库等。
基于Cloudflare Workers构建的轻量级MCP服务器,集成Neon REST API,提供项目和分支管理工具,方便Cursor等客户端使用。
Cloudflare MCP Server是一个允许LLM客户端通过自然语言与Cloudflare服务(如Workers, KV, R2, D1等)交互的工具,充当LLM与Cloudflare API之间的桥梁。