← 返回首页

"Serverless"标签的搜索结果

找到 30 个结果

MCP-UI 演示服务器

一个基于Express和Netlify Serverless Functions构建的MCP服务器,用于演示和测试Model Context Protocol用户界面(MCP-UI)组件和交互。

ACI.dev - AI 工具调用基础设施

ACI.dev 是一个开源平台,通过统一的 MCP 服务器和 Python SDK,为 AI Agent 提供安全、可扩展的工具集成和上下文服务。

Serverless GitHub MCP Server

基于AWS Lambda的MCP服务器,通过工具提供GitHub代码仓库的各项操作能力,如文件读写、Issue和PR管理等。

Acurast MCP 服务器

基于 Model Context Protocol 构建的 MCP 服务器,提供访问 Acurast 资源的接口,并支持脚本部署和处理器信息查询等工具。

Lambda MCP服务器

基于AWS Lambda的简易MCP服务器,通过Streamable HTTP协议与客户端通信,提供工具调用功能。

YoMo

YoMo 是一个开源框架,用于构建可伸缩的超快速 AI 代理,通过 LLM Function Calling 作为 MCP 服务器管理资源和工具。

FastMCP Multi-Tenancy Toolkit

基于FastMCP的serverless多租户扩展实现,专为Vercel设计,利用Redis持久化会话状态,并支持SSE实时通信。

Streamable HTTP MCP Server示例 (Lambda)

基于AWS Lambda的Streamable HTTP MCP服务器示例,演示了工具调用和实时响应的实现。

MCP服务器AWS Lambda适配器

将基于stdio的MCP服务器封装为AWS Lambda函数,实现可扩展的Serverless上下文服务。

L2C CTFs MCP 服务器

基于 Azure Functions 构建的 MCP 服务器,为 L2C CTFs 实验环境提供上下文服务和工具调用能力。

Azure 远程 MCP 函数

基于 Azure 函数和 API 管理构建的远程 MCP 服务器,提供工具注册、执行和安全访问控制能力。

EdgeOne Pages HTML 部署 MCP 服务器

EdgeOne Pages MCP 服务器允许用户通过 MCP 协议将 HTML 内容快速部署到 EdgeOne Pages,并生成公开访问 URL。

Serverless MCP Server

基于AWS Lambda的轻量级MCP服务器,通过Serverless Framework快速部署,提供工具注册和执行能力,简化LLM应用上下文管理。

Azure Functions 远程 MCP 服务器

基于 Azure Functions 的 MCP 服务器快速启动模板,帮助开发者轻松构建和部署云端 LLM 上下文服务。

Middy MCP 中间件

用于在 AWS Lambda 函数中构建 MCP 服务器的 Middy 中间件,简化与 API Gateway 的集成,支持基于 HTTP 的 MCP 协议。

Vercel MCP服务器

一个基于MCP协议的服务器,用于AI智能体安全可控地操作Vercel云平台,实现项目和部署管理。

Replicate图像生成器 MCP 服务器

基于 MCP 协议,通过 Cloudflare Worker 调用 Replicate AI 模型生成图像的后端服务。

CF-MCP-Server:云原生AI服务示例

基于Model Context Protocol协议,提供开箱即用的云原生图像生成和信息检索工具,并支持快速扩展自定义功能。

Firebase MCP Server

基于Firebase的MCP服务器实现,提供Firestore数据库操作工具,支持本地Node.js和Cloudflare Workers两种运行模式,为LLM应用提供上下文数据访问能力。

edge agents

Agentics Edge Functions提供了一个基于Supabase Serverless平台的Model Context Protocol (MCP) 服务器实现,用于管理AI Agent的资源和工具。

math mcp

该仓库提供了一个基于Cloudflare Workers和Durable Objects的MCP服务器参考实现,专注于通过WebSocket提供数学计算工具服务。

mcp server tidb

基于 Model Context Protocol 协议,为 LLM 提供 TiDB Serverless 数据库访问能力的后端服务。

mcp on vercel

基于Vercel的MCP服务器实现,提供资源、工具和Prompt模板管理,通过SSE与客户端通信,支持LLM应用构建。

create mcp

create-mcp 是一个 CLI 工具,用于快速搭建和部署在 Cloudflare Workers 上的 MCP 服务器,方便用户为 Cursor 等 LLM 客户端轻松创建和管理工具。

mcp workers ai

mcp-workers-ai 是一个为 Cloudflare Workers 环境设计的 MCP 服务器 SDK,专注于为 LLM 提供工具调用能力。

mcp workers ai

mcp-workers-ai 是一个用于 Cloudflare Workers 的 MCP 服务器 SDK,旨在简化工具的加载和调用,方便 LLM 客户端通过 MCP 协议与之交互,实现工具扩展。

Modal (Serverless Python)

Modal MCP Server 是一个允许LLM客户端通过MCP协议在Modal云平台部署和调用Python应用的后端服务。

Neon MCP Server

Neon MCP Server是一个轻量级的MCP服务器,旨在通过工具化的方式,使LLM客户端能够便捷地管理和操作Neon数据库的各项服务,如项目、分支和数据库等。

Neon MCP Server

基于Cloudflare Workers构建的轻量级MCP服务器,集成Neon REST API,提供项目和分支管理工具,方便Cursor等客户端使用。

Cloudflare

Cloudflare MCP Server是一个允许LLM客户端通过自然语言与Cloudflare服务(如Workers, KV, R2, D1等)交互的工具,充当LLM与Cloudflare API之间的桥梁。