该仓库提供了一个基于Google Agent Development Kit (ADK) 构建的个性化购物智能代理,并展示了如何将其部署为支持MCP协议的服务器,以提供上下文信息和工具服务。
该仓库提供Model Context Protocol (MCP) 服务器开发的全面指南,并包含基于FastMCP框架的Python实现示例,演示如何构建、配置和运行MCP工具服务器。
Codex Agent 服务容器提供了一个 Docker 化环境,内置多种 Model Context Protocol (MCP) 服务器,赋能 LLM 客户端通过标准化协议调用外部工具和管理上下文。
一个用于使用 TypeScript 构建和部署 Model Context Protocol (MCP) 服务器的框架,旨在简化 LLM 应用上下文服务开发。
一个预配置的容器化开发环境,内置 Claude CLI 和基于 Chrome DevTools 的 MCP 服务器,支持 Docker 和 Podman。
一个可扩展的AI Agent运行时后端,通过Model Context Protocol (MCP) 和A2A协议暴露AI Agent能力,提供工具调用、上下文管理和会话交互服务。
将 Fastify 应用转变为高性能、可流式传输的 MCP 服务器,支持 AI 助手安全连接外部数据和工具。
为基于 Model Context Protocol (MCP) 构建的 Node.js 服务器提供核心框架和常用功能,简化 LLM 应用后端开发。
提供一个集成了 Auth0 认证流程的 FastMCP 服务器,用于为 LLM 客户端提供安全的上下文和工具访问。
将 Perplexity AI 问答和搜索能力通过 Model Context Protocol 封装为工具,为 LLM 客户端提供高级上下文服务。
这是一个基于.NET MCP SDK构建的天气信息服务,可作为MCP服务器托管在Azure Functions上,为LLM提供天气查询工具。
一个基于Go语言实现的Model Context Protocol (MCP) 服务器,内置OpenTelemetry支持,提供LLM应用所需的上下文服务和工具调用能力。
一个基于Python的MCP服务器框架,提供持久化会话、工具和资源管理,支持服务器重启后安全地恢复LLM交互。
一个现代化、生产就绪的Model Context Protocol (MCP) 服务器,用于将Node-RED的流、节点和运行时信息暴露给大型语言模型(LLM)客户端。
一个基于 Symfony 框架构建的 MCP 服务器示例,通过 JSON-RPC 协议向 LLM 客户端提供工具服务。
提供AI赋能的API开发指导和OpenAPI构建工具,通过MCP协议与LLM客户端交互。
一个基于MCP协议,用于向Discord发送通知的服务器,可在Cloudflare Workers上部署。
Madness Interactive 生态中的核心 MCP 服务器,用于分布式任务管理、Agent 协同与上下文服务。
基于TypeScript和Firestore,演示OAuth认证和工作空间隔离的MCP资源服务器参考实现。
基于MCP协议,托管多种AI工具(如天气、航班、量子计算等),为LLM客户端提供上下文和能力。
一个基于 MCP 协议的服务端,使 LLM 能通过工具和资源与 Databricks Genie 交互,获取数据和答案。
在 Internet Computer (IC) 上构建 Model Context Protocol (MCP) 服务器的开发工具包。
一个基于MCP协议的服务器,通过JSON-RPC将思科ISE(Identity Services Engine)数据动态封装为可调用的工具。
通过 Model Context Protocol (MCP) 连接 AI 客户端与 DigitalOcean 资源,实现智能化的云管理。
通过自然语言简化Kubernetes管理,并可作为MCP服务器提供Kubernetes工具能力给LLM客户端。
通过Model Context Protocol工具管理AWS Lake Formation权限
基于FastMCP框架构建的Model Context Protocol (MCP) 服务器实现,用于将代理能力暴露给大型语言模型客户端。
基于Model Context Protocol (MCP),为AI语言模型提供餐厅点单、服务员呼叫等功能的上下文和工具服务。
用于使用流畅接口快速构建 Model Context Protocol (MCP) 服务器的 JavaScript/TypeScript 库。
标准化AI agent开发、部署与互操作框架,提供构建和运行MCP兼容服务器的能力。
通过 Model Context Protocol (MCP),为 LLM 提供访问和管理 Cloudera Machine Learning 资源的工具集。
基于 MCP 协议为大型语言模型 (LLM) 提供访问 Apache Doris 数据库的工具和上下文信息。
一个在Node.js环境下通过WebAssembly运行.NET ASP.NET Core实现Model Context Protocol (MCP) 服务器的基础示例。
基于 Model Context Protocol (MCP) 实现的服务器,提供与 Jackal Protocol 分布式存储网络交互的功能。
基于Model Context Protocol (MCP) 的3D Slicer辅助代理后端,提供Slicer功能和数据访问作为工具。
轻量级网桥,将 Cloudera Agent Studio 功能暴露为 MCP 工具,供大型语言模型客户端调用。
基于 Model Context Protocol 的服务器,提供对 Square Connect API 的标准化访问,赋能大型语言模型与 Square 商业数据和功能交互。
一个基于Model Context Protocol (MCP) 的服务器,通过工具调用为LLM提供Pixabay图片搜索功能。
基于 Model Context Protocol (MCP) 构建 LLM 应用的高效框架,用于创建和编排 Agent、调用工具和管理上下文。
基于Hono框架,实现Model Context Protocol (MCP) 的无状态服务器,优化适配Cloudflare Workers等Serverless环境。
基于Convoworks框架,将WordPress服务扩展为MCP服务器,通过SSE协议为LLM客户端提供工具和Prompt能力。
基于 Model Context Protocol 和 Streamable HTTP 协议的服务器端实现,使用 TypeScript 开发,提供资源管理、工具注册和 Prompt 模板等核心 MCP 功能。
此项目演示了如何使用 Genkit 和 MCP 协议,通过 Google Maps API 为 LLM 提供地理位置信息查询等工具。
基于Spring AI框架构建的MCP服务器,提供资源、工具和Prompt模板管理,并通过SSE实现与LLM客户端的通信。
基于Cloudflare Workers构建的远程MCP服务器,提供资源、工具和Prompt模板管理,并通过OAuth进行安全认证。
基于Cloudflare Workers构建的远程MCP服务器,提供OAuth登录和工具注册能力,可与Claude等客户端集成。
基于AWS Lambda的简易MCP服务器,通过Streamable HTTP协议与客户端通信,提供工具调用功能。
该仓库通过示例项目展示了如何将MCP服务器与GitHub Copilot Agent模式集成,提供上下文信息和工具能力。
基于Spring AI框架实现的MCP服务器示例,提供元素周期表查询、文件系统访问和地图路线规划等工具服务。
为 Better Auth 应用提供模型上下文协议 (MCP) 服务,管理资源、工具和 Prompt 模板,标准化 LLM 交互。
演示如何使用Model Context Protocol (MCP) 构建可扩展的AI应用后端,包含TypeScript和Python MCP服务器示例,支持STDIO和SSE传输协议,并集成LangGraph。
演示了基于Model Context Protocol的服务器实现,提供通过Stdio和SSE协议与LLM客户端交互的示例,包括工具注册和执行。
基于AWS Lambda的Streamable HTTP MCP服务器示例,演示了工具调用和实时响应的实现。
本仓库提供了一个MCP客户端示例,用于演示如何通过Model Context Protocol (MCP) 与MCP服务器交互,并探讨工具投毒攻击的可能性。
AgentStudio MCP服务器为AgentStudio平台上的智能体提供资源访问和工具调用能力,符合模型上下文协议标准。
基于 Azure Functions 构建的 MCP 服务器,为 L2C CTFs 实验环境提供上下文服务和工具调用能力。
Infisical MCP Server 通过 Model Context Protocol (MCP) 协议,将 Infisical 密钥管理平台的功能以工具形式提供给 LLM 客户端,实现安全的密钥管理和访问控制。
基于 Internet Computer 的最小化 MCP 服务器实现,目前仅支持工具 (Tools) 功能和 Streamable HTTP。
演示如何使用 Model Context Protocol (MCP) 构建支持 Claude LLM 的聊天应用,通过多个 MCP 服务器提供工具扩展 LLM 能力。
一个基于MCP协议的轻量级智能体,允许LLM通过自然语言操作SQLite数据库,演示LLM如何通过MCP协议与外部工具交互。
演示如何构建一个基于Playwright的Web自动化MCP服务器,并与AWS Bedrock集成,实现LLM Agent能力。
基于Spring AI框架构建的MCP服务器示例,提供图书信息查询工具,支持LLM客户端通过工具调用获取图书数据。
基于AWS Lambda的轻量级MCP服务器,通过Serverless Framework快速部署,提供工具注册和执行能力,简化LLM应用上下文管理。
基于Langchain和NestJS构建的MCP服务器示例,演示了如何使用MCP协议提供上下文信息和工具能力。
一个基于Tavily API实现的极简MCP服务器,提供网页搜索工具,方便LLM客户端获取实时信息。
演示如何使用 Entra ID 认证和 HTTP+SSE 传输协议实现 MCP 服务器,提供调用 Microsoft Graph 获取用户信息的工具。
基于MCP和LangChain的开源AI Agent,用于自动化LinkedIn内容生成和发布,通过本地MCP服务器提供内容搜索工具。
基于Cloudflare Workers构建的远程MCP服务器示例,演示了如何使用OAuth进行身份验证并提供工具功能。
基于Spring AI和MCP协议,提供人员数据CRUD操作和查询工具的示例MCP服务器,用于演示MCP服务器的基本功能。
基于 Spring AI 构建的 MCP 服务器示例,提供天气查询工具,演示如何向 LLM 客户端提供外部数据访问能力。
基于Model Context Protocol的示例MCP服务器,提供工具注册和调用能力,支持Stdio和SSE传输协议,用于LLM智能体应用。
基于 MCP 协议的服务器,为 LLM 提供通过 Scrapeless API 进行 Google 搜索的功能,扩展 LLM 的信息检索能力。
轻量级 Javascript MCP 服务器及客户端 SDK,专注于 SSE 传输,简化 AI Agent 上下文服务搭建。
基于LangChain4j和Quarkus MCP构建的演示项目,提供天气查询工具的MCP服务器实现。
基于Spring AI构建的MCP协议演示服务器,提供资源、工具和Prompt模板管理功能。
通过模型上下文协议 (MCP) 为 LLM 代理提供浏览器自动化工具 (Playwright),实现网页交互和信息提取。
演示如何使用 LlamaCloud 搭建 MCP 服务器,通过工具集成 LlamaIndex 云端索引,为 LLM 客户端提供 RAG 能力。
一个基于 MCP 协议的服务器,提供访问 Microsoft Dynamics 365 数据的工具,支持用户、账户和商机信息的查询与管理。
一个基于 Model Context Protocol 的服务器,用于通过工具调用 Azure DevOps REST API 管理工作项。
基于Springboot框架搭建的MCP服务器模板项目,支持STDIO和SSE模式,方便开发者快速构建和测试MCP后端服务。
基于Spring AI框架构建的MCP服务器示例,用于演示如何为LLM应用提供上下文服务,包括资源管理、工具调用和Prompt模板渲染等核心功能。
基于Spring AI MCP Server框架实现的课程信息服务,通过标准化的MCP协议向LLM客户端提供课程数据查询工具。
LLM Bridge MCP 是一个基于 Model Context Protocol (MCP) 的服务器,旨在为 LLM 客户端提供统一的接口,以访问和使用多种 LLM 提供商的模型。
基于Cloudflare Workers和Stytch的TODO应用MCP服务器,提供资源管理和工具调用能力,扩展传统应用以支持AI Agent。
基于Maton API的MCP服务器实现,提供HubSpot和Salesforce的集成工具,允许LLM客户端通过MCP协议调用和管理CRM数据。
基于 Go 语言实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具注册和 Prompt 模板等核心功能,用于构建 LLM 应用的上下文服务后端。
KubeChain是一个Kubernetes原生的AI Agent编排器,支持异步工具调用和通过MCP服务器扩展Agent功能。
基于 Semantic Kernel 和 MCP C# SDK 构建的示例 MCP 服务器,演示如何通过 MCP 协议提供工具能力。
y-cli MCP Daemon 是一个用于管理和连接多个 MCP 服务器的后台服务,允许 y-cli 客户端通过统一接口安全便捷地调用 MCP 工具和访问资源。
基于Spring AI工具调用的MCP服务器示例,用于信用评分分析,集成内外部数据源,并通过Slack发布结果。
本仓库提供了一个使用FastMCP库构建的MCP服务器示例,用于将CustomGPT的功能集成到支持MCP协议的LLM客户端,例如Claude。
一个基于MCP协议的WordPress REST API服务器,提供WordPress网站内容和功能的访问能力。
这是一个使用 JavaScript 开发的 MCP 服务器示例,演示了天气工具和 Prompt 功能。
gomcptest 是一个 Model Context Protocol (MCP) 服务器的概念验证项目,演示了如何使用自定义构建的主机来实现 MCP 协议,并集成了 OpenAI 兼容 API 和 Google Gemini,用于测试 Agentic 系统。
基于Model Context Protocol (MCP) 构建的服务器,集成了Sionic AI Storm平台的RAG能力,为LLM客户端提供工具和资源访问。
mcp-server-salesforce 是一个 MCP 服务器实现,提供笔记的存储、总结和添加功能,可作为与 Salesforce 集成的基础。
一个基于WebSocket的MCP代理服务器,用于连接和管理多个MCP后端服务器,并通过Web界面为LLM应用提供工具调用能力。
mcp.rs 是一个用 Rust 语言实现的高性能 Model Context Protocol (MCP) 服务器,旨在为 AI 应用提供标准化的上下文和资源访问能力。
Databutton MCP服务器用于应用初步规划和创建。它提供资源访问、工具调用和Prompt模板,帮助用户在Databutton平台上构思和提交应用需求。
基于Amazon Bedrock的MCP服务器演示项目,提供ChatBot API并集成多种MCP工具,扩展大模型应用场景。
gomcp 是一个使用 Go 语言编写的 Model Context Protocol (MCP) 服务器的非官方实现,旨在为 LLM 应用提供工具和 Prompt 服务。
mcp-swift-sdk 是一个 Swift SDK,用于构建 MCP 客户端和服务器,帮助开发者在 Swift 应用中集成 Model Context Protocol 功能。
mcp-workers-ai 是一个为 Cloudflare Workers 环境设计的 MCP 服务器 SDK,专注于为 LLM 提供工具调用能力。
Perplexity MCP Server 实现了 ask_perplexity 工具,允许 LLM 客户端通过 Perplexity API 获取带引用的信息,用于研究、事实核查等场景。
连接 LlamaCloud 知识库的 MCP 服务器,通过工具提供知识库信息检索功能,为 LLM 应用提供上下文数据。
基于MCP协议的Unichat服务器,通过工具和预定义的Prompt模板,为Claude等客户端提供访问多种LLM模型(如OpenAI, MistralAI)的能力。
Linkup for Claude MCP服务器为 Claude 等 LLM 提供联网搜索能力,通过 Linkup 平台访问实时信息和优质内容。
提供了一个基于Python实现的最小化MCP服务器示例,包含日期时间工具,用于演示MCP协议服务器端的基本功能。
mcp-workers-ai 是一个用于 Cloudflare Workers 的 MCP 服务器 SDK,旨在简化工具的加载和调用,方便 LLM 客户端通过 MCP 协议与之交互,实现工具扩展。
AI_Claude_MCP 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在通过 Claude 与 Amazon Fresh 交互,实现创建购物清单并生成 Amazon Fresh 链接的功能,方便用户进行在线生鲜购物。
mcp_fetch仓库实现了一个简单的MCP服务器,通过集成的网页分析工具,允许LLM客户端(如Claude Desktop)分析指定URL的网页内容,提取标题、链接、段落和图片数量等信息。
SmallCloud MCP Server是一个演示项目,展示了如何为Claude Desktop构建一个基于Model Context Protocol (MCP) 的服务器,提供了一个简单的“hello world”工具作为示例。
该项目是一个基于 Model Context Protocol (MCP) 的服务器示例,它提供工具以便 LLM 客户端调用 Mistral AI 的聊天模型,支持文本和图像输入。
Ntropy MCP服务器是一个应用后端,通过提供工具调用Ntropy API,实现银行交易数据的增强和账户持有者创建等功能,为LLM应用提供金融数据处理能力。
Eagle.cool 仓库实现了一个简单的 MCP 服务器,用于与 Eagle 应用程序交互,目前提供检查 Eagle 应用连接状态的工具,可与 Claude Desktop 等 MCP 客户端配合使用。
Livecode MCP Server是一个基于MCP协议的io.livecode.ch代码运行工具服务器,允许LLM客户端通过工具调用在io.livecode.ch上运行代码。
ScreenshotOne MCP Server是一个基于Model Context Protocol的服务器,提供网页截图工具,允许LLM客户端调用以获取指定URL的网页截图。
Modal MCP Server 是一个允许LLM客户端通过MCP协议在Modal云平台部署和调用Python应用的后端服务。
mssql-mcp-server是一个MCP服务器,允许LLM安全地与Microsoft SQL Server数据库交互,实现数据查询和工具调用。
Holaspirit MCP Server为AI助手提供标准化的MCP接口,使其能够通过工具访问和操作Holaspirit组织的数据,实现与Holaspirit API的集成。
DigitalFate是一个企业级AI Agent框架,提供LLM调用、工具集成和任务编排能力,并兼容MCP协议,用于构建可扩展的LLM应用后端服务。
MCP2Lambda 是一个 MCP 服务器实现,它充当 MCP 客户端与 AWS Lambda 函数之间的桥梁,使 LLM 能够以工具的形式调用 AWS Lambda 函数,扩展 LLM 的能力以访问后端服务和资源。
集成 Dify AI API 的 MCP 服务器,提供 Ant Design 组件代码生成工具,支持文本和图片输入,通过标准输入输出与客户端通信。
Youtube Summarizer MCP Server是一个基于MCP协议的服务端,将Youtube摘要API封装为工具,供LLM应用调用,实现视频摘要和聊天功能。
Coinmarket MCP服务器是一个应用后端,通过MCP协议向LLM客户端提供来自Coinmarket API的加密货币市场数据,包括最新的加密货币列表和报价信息,支持以资源和工具两种方式访问。
Penumbra MCP服务器为LLM应用提供访问Penumbra区块链的工具,实现隐私交易查询、验证器信息、DEX状态和治理提案等功能。
mcp-hfspace 是一个 MCP 服务器,它连接了 Claude Desktop 等 MCP 客户端与 Hugging Face Spaces,使得用户可以通过 Claude 等工具调用 Hugging Face Spaces 上托管的各种模型和服务,例如文生图、语音合成、视觉模型等。