在 Cloudflare Workers 上实现的基于 Model Context Protocol (MCP) 的后端服务器,提供 30 种实用工具、OAuth 认证、KV 存储以及 Workers AI 集成,旨在为大语言模型客户端提供统一的上下文、数据访问和外部功能调用能力。
一个基于 Cloudflare Workers 部署的 MCP (Model Context Protocol) 服务器,能够将现有 RESTful API 包装成 LLM 可调用的工具。
基于Model Context Protocol协议,提供开箱即用的云原生图像生成和信息检索工具,并支持快速扩展自定义功能。
Cloudflare MCP Server是一个允许LLM客户端通过自然语言与Cloudflare服务(如Workers, KV, R2, D1等)交互的工具,充当LLM与Cloudflare API之间的桥梁。