← 返回首页

"资源管理"标签的搜索结果

找到 267 个结果

Strands Agent SOP MCP 服务器

一个基于 Model Context Protocol (MCP) 的后端服务,加载内置与外部 SOP,将它们作为可调用的提示注册,通过 FastMCP 提供 JSON-RPC 服务供 MCP 客户端访问,用于向大型语言模型提供结构化上下文和功能性提示。

LogicApps MCP Server

基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Azure Logic Apps 的资源、工具与工作流定义的标准化访问,使用 JSON-RPC 进行请求/响应,并通过标准的 Stdio 传输实现本地集成与扩展能力。

MCP Gitea 服务端

基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Gitea 实例的资源、工具与提示模板等上下文能力,支持资源访问、工具调用与提示渲染。

AIPartnerUpFlow MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。

Agentic QE MCP Server

基于 Model Context Protocol 的后端服务,作为 MCP 服务器向 LLM 客户端以标准化方式提供资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多传输协议接入(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

Oh My OpenCode MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行标准化通信,支持多种传输协议与会话管理以实现安全、可扩展的上下文服务。

MCP 服务器示例与工具/资源整合演示(Model Context Protocol 服务端)

基于 Model Context Protocol(MCP)的服务器端实现示例集合,展示如何暴露工具、资源与 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,涵盖多种 MCP 服务端实现与用法,适合作为后端上下文服务的参考实现。

TemPad Dev MCP 服务器

基于模型上下文协议(MCP)的后端服务实现,提供资源管理、工具执行与提示模板渲染等能力,并通过 JSON-RPC 与客户端通信。实现了服务器端的工具注册与执行、资源导出与资产管理、以及对 Prompts/模板的支持,支持多传输协议(如标准输入/输出、SSE、WebSocket 等),用于为大模型/LLM 客户端提供标准化的上下文服务与能力暴露。

Agent Assistant MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供工具注册、资源管理和提示模板渲染等核心能力,通过 JSON-RPC/Connect 框架与 MCP 客户端进行标准化通信,支持多个传输和会话能力,服务端还与前端 Web 界面和后端资源/工具链进行协作。

Agent Zero MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文信息、资源、工具与提示模板的管理与执行能力。服务器通过 JSON-RPC 风格的交互,支持资源读取、工具注册/执行、Prompts 渲染等核心功能,并具备会话管理、能力声明,以及对多种传输协议(如 STDIO、SSE、WebSocket 等)的扩展支持,适合在本地或服务端环境中作为 MCP 服务端使用。

Skrills MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管与访问、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 进行与 LLM 客户端的通信,支持多传输协议用于上下文服务的扩展性。

Xiaozhi ESP32 MCP 服务器(Golang 实现)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,并支持多传输协议(如 WebSocket、MQTT/UDP 等)通过 JSON-RPC 与客户端通信,面向边缘设备和物联网场景的上下文服务解决方案。

MCPU - MCP 服务器框架

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,支持 stdio、HTTP、SSE 等传输,并通过 JSON-RPC 与客户端进行消息交互,具备会话管理、能力声明及多传输协议支持等能力。

NiceVibes MCP 服务器

基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。

UDS-POS MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供标准化的资源(Resources)、工具(Tools)以及提示模板(Prompts),通过 JSON-RPC 与 LLM 客户端通信,支持多传输通道并对接 Supabase 数据源,构建面向 AI 赋能的上下文服务框架。该仓库包含一个完整的 MCP 服务器实现(含工具定义、资源暴露、提示模板以及 Prompt 执行逻辑),并以 Stdio 传输方式提供服务入口。

Daisy Days MCP 服务端

基于 Model Context Protocol 的 MCP 后端服务器,实现资源与工具的管理,并通过 JSON-RPC 接口与 LLM 客户端进行交互,支持多工具与内容生成功能。

atlas-mcp

基于模型上下文协议(MCP)的服务器实现,向LLM客户端提供ATLAS Central Page的资源、工具与提示模板的统一访问接口,支持JSON-RPC风格请求/响应,以及多传输模式(如STDIO、HTTP)以服务化LLM上下文信息和能力查询。

Klondike MCP Server(Klondike Spec CLI)

基于模型上下文协议(MCP)的后端实现,向 MCP 客户端暴露 Klondike Spec 的资源、工具和提示模板等能力,并通过 JSON-RPC 形式处理请求与响应,支持多传输协议用于与大型语言模型的无缝对接。

CodingBuddy MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具、Prompt 的托管、读取和渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议以提供安全、可扩展的上下文服务。

Arivu MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。

Ada MCP 服务器实现

基于 Model Context Protocol(MCP) 的后端服务,作为本地大模型应用的上下文提供者。该服务器托管与管理 Resources(数据资源)、Tools(可注册并供 LLM 调用的外部功能)以及 Prompts(Prompt 模板渲染),通过 JSON-RPC 与客户端通信,完成会话管理、能力声明以及跨传输协议(如 Stdio、SSE、WebSocket)的上下文服务,方便编辑器、IDE 以及本地模型进行组合式推理与扩展。仓库中明确包含 MCP 集成组件、启动脚本及相关文档,具备对 MCP 客户端的完整支持能力。

cctelepathy MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,面向 Claude Code 等 LLM 客户端提供标准化的上下文与功能服务。

MCP Mail 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染等能力,并通过 JSON-RPC 风格接口向 LLM 客户端暴露上下文与功能。服务器支持多种传输形式(HTTP)、会话管理、能力声明,以及可拓展的工具与资源生态,提升大模型在编码协作中的上下文服务能力。

ModelCypher MCP 服务器

ModelCypher MCP 服务器是一个基于 Model Context Protocol 的后端服务,提供资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明及多传输协议。

Code Puppy MCP Server

基于模型上下文协议(MCP)的后端服务器,实现资源托管、工具注册/执行以及提示模板渲染,并通过 JSON-RPC 与客户端通信,提供会话管理、能力声明以及对多传输协议的支持,旨在为LLM客户端提供标准化的上下文和外部功能访问服务。

AimDB MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现对 Resources、Tools 与 Prompts 的托管、注册与渲染,并通过 JSON-RPC 2.0 与 LLM 客户端进行通信,支持资源读取/订阅、工具调用、提示获取,以及远程订阅通知等功能。该实现包含完整的服务器端约束、路由、订阅管理与通知输出,具备可运行的 MCP 服务端能力。

Workstation MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源(Resources)托管与数据访问、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC/WebSocket 等通道与 LLM 客户端进行标准化上下文服务交互。

Yanger 模型上下文服务端

基于模型上下文协议的后端实现,提供资源管理、外部工具注册与执行以及对外暴露的工具集合,支持通过标准化的 JSON-RPC 方式与客户端进行对话式上下文交互。

OpenMarkets MCP 服务器

基于 Model Context Protocol 的后端服务器,向大型语言模型客户端提供资源、工具和提示模板等上下文与功能,并通过 JSON-RPC 进行通信与协作。

MCP 服务器实现学习与示例

基于 Model Context Protocol (MCP) 的服务器端实现示例,展示如何通过 JSON-RPC 提供资源管理、工具执行与 Prompt 模板渲染等核心能力,并支持通过标准输入输出 (stdio) 的传输模式与客户端进行通信,适合作为学习和实验用途的 MCP 服务器实现。

Claude Swarm MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于托管资源、注册与执行工具、渲染 prompts,并通过 JSON-RPC/事件流等协议为 LLM 客户端提供标准化的上下文服务与能力扩展。

Singular Blockly Model Context Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供可管理的资源、可注册的工具和可渲染的 Prompt 模板,通过 JSON-RPC 进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明等功能。

ai-infra MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式提供资源管理、工具注册/执行以及 Prompt 模板渲染等上下文服务,支持会话管理、能力声明与多传输协议(如 stdio、SSE、WebSocket),旨在为 LLM 应用提供可扩展、安全的上下文服务能力。

MCP Nim SDK 服务器实现

基于 Nim 的 MCP 服务器实现,提供资源、工具、提示模板等管理,支持多种传输协议(stdio、SSE、HTTP/Streamable、InMemory),并通过 JSON-RPC 与客户端进行请求与响应通信。

DevTeam6 MCP 服务器集

基于 Model Context Protocol (MCP) 的后端服务器实现集合,提供 Resources 的托管与管理、Tools 的注册与执行,以及可扩展的提示模板/交互能力,并通过标准化的 JSON-RPC 风格接口与 LLM 客户端进行通信,支持会话管理与多种传输场景。当前实现包括 MemoryMCPServer 与 RAGMCPServer 等服务器骨架,可作为 MCP 客户端对接的后端服务端。

Computer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。

Agents Backend MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器实现,用于向 LLM 客户端以标准化方式暴露资源、工具以及 Prompt 模板等上下文服务,支持通过多种传输协议与客户端通信,负责会话管理与能力声明,并可与 LangGraph 生态整合进行工具发现与执行。

SentryFrogg MCP 服务器

基于 Model Context Protocol (MCP) 的 STDIO 交互后端,为大语言模型客户端提供资源管理、工具注册/执行以及提示模板渲染的统一上下文服务。

Tactus MCP 服务端实现

基于模型上下文协议(MCP)的服务器端实现,面向后端提供统一的资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染。通过 JSON-RPC 与客户端通信,支持会话管理、能力申明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)实现安全、可扩展的上下文服务,方便 LLM 客户端调取资源、执行工具与获取定制的 Prompt。该仓库明确包含 MCP 相关的服务端实现与集成能力。

ESP-MCP over MQTT – ESP32 的 MCP 服务器实现

基于 MCP(Model Context Protocol)在 ESP32/ESP-IDF 上实现的 MQTT 传输 MCP 服务器,提供资源管理、工具注册与调用、以及 Prompt/模板支持,利用 JSON-RPC 与客户端通信,适用于边缘设备上的上下文与能力服务。

Cognia MCP 服务端实现

基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。

ABCoder MCP 服务端

基于 Model Context Protocol(MCP)的服务器实现,作为后端上下文服务提供者,负责托管并管理 资源(如 UniAST/AST 数据、仓库结构等)、注册与执行工具,以及定义和渲染 Prompt 模板,供大语言模型(LLM)客户端通过 JSON-RPC 进行资源访问、工具调用与提示渲染等交互。实现了 MCP 服务端核心能力,支持 STDIO/HTTP 等传输模式的通信。

MCP Over MQTT 服务器实现(paho-mcp-over-mqtt)

基于 MQTT 5.0 的 MCP 服务器实现,使用 paho-mqtt-c 库,提供资源管理、工具注册与调用、以及基于 JSON-RPC 的 MCP 请求/响应处理,支持服务器上线、会话管理和多客户端交互。

365DaysOfData MCP 服务器(From Scratch)

基于模型上下文协议(MCP)的后端实现示例,包含可运行的 MCP 服务器代码、工具/资源注册以及简单的 Prompt 管理能力,能够通过标准化的 JSON-RPC 方式与客户端交互。

AstroFusion Design System MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染,使用 JSON-RPC 与客户端通信,当前实现通过标准输入输出传输(Stdio)提供 MCP 服务并暴露设计系统的令牌、组件规则与提示内容。

mcpkit

基于 Model Context Protocol (MCP) 的服务器端实现框架,提供资源、工具、提示的托管、注册、路由与多传输支持,面向 LLM 客户端的上下文服务。

GPT4Free MCP 服务器

基于 Model Context Protocol (MCP) 的多模型上下文服务后端,向 LLM 客户端提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持会话管理并兼容多种传输协议(STDIO/SSE/WebSocket),为 AI 应用提供可扩展、安全的上下文服务框架。

AC2-MCP 服务器(多智能体上下文服务)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 的定义/渲染,支持通过多种传输方式进行 JSON-RPC 通信,供 LLM 客户端以标准化方式获取上下文、调用外部工具并渲染对话模板。

AdCP Sales Agent MCP Server

基于模型上下文协议(Model Context Protocol, MCP)的后端服务器,向大型语言模型(LLM)客户端以标准化方式提供资源数据、工具执行能力和可渲染的提示模板,支持多租户、会话管理以及通过 JSON-RPC 与客户端通信的上下文服务框架,适用于广告投放场景的自动化协作与执行。

Fess MCP WebApp 插件

将 Fess 转换为基于 MCP 的服务器,提供 JSON-RPC 2.0 的接口,用于资源、工具、提示等的管理与调用

WeKnora MCP 服务端

基于 WeKnora 的 MCP(Model Context Protocol)服务器实现,向大模型客户端提供标准化的资源、工具与提示模板的上下文服务,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,用于实现安全、可扩展的上下文环境。该服务器通过 JSON-RPC 与客户端进行通信,承载资源访问、工具注册/执行与提示渲染等核心能力。典型场景包括对接外部知识库、执行工具调用、以及渲染与提供定制化的 Prompt 模板。

Fred MCP 服务器实现套件

基于 Fred 平台的 MCP 服务器实现,提供以标准化方式向大语言模型客户端提供资源、工具、提示模板等上下文与能力的后端服务,并通过 JSON-RPC/多传输通道进行通信。包含知识流后端的完整 MCP 服务、以及用于快速演示的最小 MCP 服务器示例和相应部署示例。

Claude Code Workflow MCP 服务器

基于 Claude Code Workflow 的 MCP 服务器实现,使用 JSON-RPC 与客户端通信,核心职责是托管资源、注册工具、定义并渲染 Prompt 模板,为 LLM 客户端提供可扩展的上下文服务。

Concierge MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册/执行、Prompt 模板渲染,并通过 MCP/JSON-RPC 进行客户端交互,支持会话管理与跨协议传输,面向 LLM 客户端提供可扩展的上下文服务框架。

Fastly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并可在 stdio、HTTP(含 SSE)等传输模式下运行,具备会话管理、能力声明和安全保护机制。

UI-TARS-desktop MCP 服务实现与集成

基于 UI-TARS-desktop 的 MCP 服务实现与集成,为桌面端应用提供资源管理、工具注册与提示模板的统一上下文服务,通过 MCP 协议与 LLM 客户端进行交互;在本地环境中可以以 In-Memory/MCP 服务器等多种方式暴露工具与资源,并支持浏览器、文件系统等内置模块的扩展与组合使用,形成一个可运行的 MCP 服务端框架生态。

Yutu MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器,用于通过标准化的 JSON-RPC 与客户端交互,提供对 YouTube 资源的托管和访问、工具执行以及 Prompt 模板渲染等功能。

DevBCN 2025 MCP Server

基于 Model Context Protocol (MCP) 的后端示例服务器,提供资源注册、提示渲染,以及多传输(HTTP/STDIO)支持,便于与 MCP 客户端对接与集成。

Claude Sessions MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现 Claude Code 会话的资源管理、工具执行与提示渲染,提供统一的上下文服务给 LLM 客户端,采用 JSON-RPC 进行交互,支持多传输方式并完成会话、资源、工具等能力的托管与管理。

Sunpeak MCP 服务器端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具调用以及资源渲染的服务端能力,并通过 JSON-RPC/ SSE 方式与客户端通信,支持多会话与会话管理,适用于在后端向 LLM 客户端提供可扩展的上下文服务。

HealthSim MCP Server

基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。

Krolik MCP 服务器(Claude Code 集成)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管与管理、工具注册/执行,以及提示模板的定义与渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议的上下文服务框架。

narsil-mcp

基于 Model Context Protocol (MCP) 的高性能本地后端服务器实现,提供资源管理、工具注册与执行、以及基于模板的 Prompt 渲染,支持 JSON-RPC 标准交互、会话管理和多传输协议(如 STDIO、SSE、WebSocket),用于本地化的代码上下文理解与分析场景。内置多语言代码解析、符号与引用检索、调用图与安全分析等工具集,面向离线/隐私安全的 LLM 客户端提供丰富上下文服务。

mcp-server-starter

一个基于 Model Context Protocol 的最小可运行服务器实现,使用 stdio 传输,与客户端通过 JSON-RPC 进行交互,公开一个简单的 hello 工具,便于开发者快速上手 MCP 服务端开发。

GTM Wizard MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 AI 代理提供资源、工具、提示等上下文服务,并通过 JSON-RPC 与客户端交互,支持资源管理、工具执行与提示渲染等核心能力。

Super AI Plugin Hub

基于 Model Context Protocol (MCP) 的服务器端框架,聚合、管理资源与工具,并通过 JSON-RPC 将上下文、工具与提示暴露给 LLM 客户端,同时支持本地与远程 MCP 服务器的代理与协作。

mcp-agent-builder-go

基于Go实现的MCP后端服务器,提供资源管理、工具注册与执行、提示模板渲染,以及面向多MCP服务器的上下文服务框架;通过多协议通信(HTTP/SSE/stdio 等)与LLM客户端协同工作,支持任务编排、工具调用、以及会话级别的上下文管理。该仓库不仅包含服务端实现,还包含用于工具、客户端以及前端的相关组件与示例,目标是构建一个可扩展的MCP服务器生态。通过统一的接口实现资源、工具、提示模板的托管、注册与执行。

NCP - 自然上下文提供者 MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供统一的资源管理、工具注册/执行以及 Prompt 模板的定义和渲染,能够通过 JSON-RPC 与 LLM 客户端进行交互,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理、能力声明及健康监控等扩展能力。

CC-Switch MCP 服务器实现

基于模型上下文协议(MCP)的服务器端实现,提供资源托管、工具注册/执行以及 Prompts 定义与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式并具备会话管理与跨应用的 MCP 服务器管理能力。

Peta MCP 服务器集合

基于 Model Context Protocol 的完整 MCP 服务器集合,覆盖 Google Drive、PostgreSQL、Notion、Figma、Google Calendar、GitHub、Zendesk 等多服务工具与资源托管,支持 JSON-RPC 通信、STDIO/REST 网关等传输方式,提供资源管理、工具注册与 Prompts 渲染等能力,便于与 LLM 客户端在同一后端进行上下文与功能扩展。

py-code-mode

基于 MCP 的后端服务,为大语言模型客户端提供标准化的上下文信息与功能支持,托管资源、注册工具、定义与渲染提示模板,并通过 JSON-RPC 与客户端交互,支持多种传输协议与会话管理。该仓库实现了 MCP 相关组件与服务器端能力,旨在在本地或分布式环境下提供可扩展的上下文服务。

OOREP MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理、工具注册与执行、以及提示模板渲染,向大语言模型客户端提供可扩展且结构化的上下文服务与数据访问能力。

OpenTiny NEXT-MCP 服务器实现套件

基于 Model Context Protocol 构建的 MCP 服务器实现集合,提供资源与工具的托管、Prompt 定义及渲染能力,并通过 JSON-RPC 与客户端通信,支持多入口输出、浏览器扩展场景,以及跨进程/跨页面的上下文服务能力。

NetMCP

基于 Model Context Protocol 的 MCP 服务器实现,用于作为后端上下文服务向大语言模型客户端提供资源管理、工具执行和提示模板渲染等能力,支持通过 JSON-RPC 方式与客户端交互并管理会话与安全策略。

LiveKit Agents MCP Server

基于 LiveKit Agents 框架的 MCP(Model Context Protocol)服务器实现与示例,提供资源、工具与提示模板的托管与暴露,支持 JSON-RPC 风格的通信以及多传输协议(如 SSE/WebSocket/StdIO)以供 LLM 客户端访问上下文信息和外部功能。

Lunar MCP Server Kit

基于 Model Context Protocol(MCP)的后端服务器实现示例,提供资源/工具管理、工具执行以及面向 LLM 的上下文渲染能力,展示了如何用 MCPX 服务器核心实现 JSON-RPC 风格的请求/响应,并支持多种传输方式(如标准输入输出、SSE、HTTP 流等)。

MCP Outlet – 通用 MCP 服务器运行时与沙箱代理

基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*

MCPCAN MCP Server Platform

基于 Model Context Protocol(MCP)的后端服务器合集,提供 MCP 服务的资源管理、工具/客户端对接、模板/提示等能力,支持多协议交互与容器化部署,用于向 LLM 客户端提供统一的上下文和外部功能调用能力。

Joern MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,结合 Joern 代码分析平台,为 LLM 客户端提供统一的资源管理、工具注册、提示模板渲染等上下文服务,并通过 JSON-RPC 支持多种传输协议(如 stdio、SSE、WebSocket)来读取资源、执行工具和渲染 Prompt。该服务器实现了 MCP 的核心功能,包含会话管理、能力声明以及对外暴露的丰富工具和资源接口。

mcpd

基于 Model Context Protocol 的 MCP 服务器端后端,提供资源与工具的托管、会话管理、以及与 MCP 客户端的 JSON-RPC 通信,辅以网关、调度、工具聚合等模块实现对 MCP 服务的弹性编排与扩展。

Quint Code MCP Server

基于模型上下文协议(MCP)的后端服务,实现了通过标准 JSON-RPC 对外提供资源管理、工具注册与执行、以及上下文相关提示/工作流的能力。该实现以 stdio 为传输介质,供 LLM 客户端(如 Claude Code、Cursor、Gemini CLI、Codex CLI 等)调用并集成到软件工程场景的推理与协作中,内部使用 SQLite DB 存储知识组件与工作流状态,支持多阶段的 FP F(First Principles Framework)推理循环。

Dingo MCP Server

基于模型上下文协议(MCP)的后端服务器,向LLM客户端标准化提供资源管理、工具注册/执行以及可自定义的提示模板渲染,通过 JSON-RPC 进行通信与协作。

Chronicle MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的注册与渲染,通过 JSON-RPC 与 AI 客户端进行交互,支持以标准输入输出(StdIO)传输的通信方式,为 LLM 应用提供可扩展的上下文服务框架。

ChatGPT App MCP Server (SSE) - Node.js 实现

基于 Model Context Protocol (MCP) 的服务端实现,使用 SSE 传输,提供资源与资源模板的托管、工具注册与执行,以及嵌入式 Widget 的渲染能力,作为 ChatGPT 应用的上下文与功能后端。

YouTube Content Agency MCP 后端集合

基于模型上下文协议(MCP)的后端服务器集合,提供对资源、工具和提示模板的托管与执行,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多种传输方式,适用于为大语言模型(LLM)客户端提供上下文与功能服务的后端架构。仓库内包含 Python 与 TypeScript 实现的多个 MCP 服务器实例及客户端示例,覆盖新闻、YouTube 工具箱、Notion 驱动的框架资源等场景。

Code Guardian MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议接入。

FlyFun MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务端实现,作为 MCP 服务器向大语言模型客户端提供标准化的资源管理、工具注册/执行以及 Prompt 模板渲染等能力,使用 JSON-RPC 进行通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)以满足多样化上下文服务需求。

Strudel MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,面向 Strudel 音乐助手,提供资源管理、工具执行与提示模板等上下文信息,通过 JSON-RPC 与 LLM 客户端进行交互,并支持基于文件系统的存储与扩展工具集。

ContextStream MCP Server

基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,提供资源托管、工具执行、提示模板渲染,以及与大模型客户端的 JSON-RPC 通信,支持会话管理、能力声明和多种传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供安全、可扩展的上下文服务。该仓库不仅包含服务器核心逻辑,还实现了资源、工具、会话初始化、自动上下文注入等关键能力的模块化实现。

Stock Master MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供资源、工具与模板等上下文服务,基于 JSON-RPC 通信,支持会话管理、能力声明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)与客户端对接,面向股票分析与量化交易场景的统一上下文服务框架。

AgentPool MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板的渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明及多传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

AutomatosX

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 AI 客户端的上下文服务中心,提供资源(Resources)管理、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输协议以便进行安全、可扩展的上下文服务。

EdgarTools MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文资源、可注册的工具以及可渲染的 Prompt 模板。通过 JSON-RPC 与客户端通信,支持会话管理、能力宣告,以及多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,适配 Claude 等 AI 助手的上下文服务需求。

Stim Model Context Protocol (MCP) 服务器

基于 Model Context Protocol 的后端服务器实现,提供资源与工具的托管、Prompt 模板的渲染,以及通过 JSON-RPC 与 LLM 客户端进行通信的能力,支持标准化的会话管理与多传输通道(如 stdio)。

Neuro SAN MCP Server

基于多智能体网络框架的MCP协议服务器,支持资源管理、工具调用和提示模板功能

OpenAgents MCP服务器

一个开源的AI代理网络平台,提供MCP服务器功能让LLM客户端能够访问网络中的资源、工具和提示模板。

虚幻引擎MCP服务器

一个让AI助手能够通过原生C++自动化桥接插件控制虚幻引擎的MCP服务器

Mistral.rs MCP服务器

基于Rust的高性能多模态AI推理引擎,提供完整的Model Context Protocol服务器实现,支持文本、视觉、语音和图像生成模型

FastMCP

一个用于在Dart中快速、声明式地构建Model Context Protocol (MCP) 服务器的框架。

Skillz MCP服务器

一个基于Model Context Protocol (MCP) 构建的服务器,用于托管和提供AI技能(Skills)及其相关资源,使LLM客户端能标准化地发现和调用外部功能。

Vespera Atelier

Vespera Atelier 是一个模板驱动的创意项目管理系统,其核心 `Vespera Scriptorium` 包提供了一个基于 Model Context Protocol (MCP) 的服务器,用于向 LLM 客户端提供上下文信息、管理资源和执行 AI 辅助工作流。

Artinet SDK

Artinet SDK 是一个TypeScript库,提供了构建Agentic Communication的AI Agent,并支持将其作为Model Context Protocol (MCP) 服务器向LLM客户端提供上下文信息和功能。

Asynchronous Component Base (ACB) - MCP服务器

ACB是一个模块化的Python框架,提供一个全面的Model Context Protocol (MCP) 服务器,使AI应用能发现、交互并编排其组件(如动作、适配器、服务)。

Skillz MCP 服务端

托管和执行Anthropic风格的技能,通过MCP协议为LLM客户端提供上下文信息、工具调用和资源管理。

SinglePageStartup MCP服务器

为SinglePageStartup框架提供基于Model Context Protocol的上下文服务,管理资源和工具,支持LLM应用集成。

Gemini Cloud Assist MCP 服务器

连接LLM客户端至Google Cloud Gemini Cloud Assist API的MCP服务器,实现通过自然语言管理和排查Google Cloud环境。

FastMCP Python上下文服务器模板

基于Python和FastMCP构建的生产级Model Context Protocol (MCP) 服务器模板,提供工具、资源和Prompt管理、多协议传输及OAuth2认证支持。

Azure 智能助手 MCP 服务器

一个基于MCP协议的Azure助手服务器,通过自然语言和KQL探索、管理您的Azure资源环境。

Agents MCP 示例服务器

一个基于Model Context Protocol的示例服务器,展示了如何托管资源、工具,并与多种LLM代理框架集成。

ExMCP: Elixir MCP 实现

基于 Elixir 语言,提供完整的 Model Context Protocol (MCP) 客户端和服务器实现,赋能 AI 模型安全交互。

Azure 自动化 MCP 服务

通过 MCP 协议,动态集成 Azure 扩展能力的统一服务器框架。

Node.js MCP 服务器可执行版

将 Node.js 构建的 MCP 服务器打包为可执行文件,提供资源、工具、提示等上下文服务。

Fluent MCP

用于使用流畅接口快速构建 Model Context Protocol (MCP) 服务器的 JavaScript/TypeScript 库。

HTTP Privacy

多语言AI后端,通过集成MCP协议库提供LLM上下文服务(资源、工具)。

FastMCP 样板项目

快速构建 MCP 服务器应用的起始样板,包含基础工具、资源、提示模板示例。

基于Google Apps Script的MCP服务器示例

在Google Apps Script环境中实现模型上下文协议(MCP)服务器,提供基础上下文服务功能。

MCP Swift SDK

为Swift开发者提供构建和连接遵循Model Context Protocol (MCP) 标准的服务器和客户端的工具包。

Guardrails MCP 服务器

将 Turbot Guardrails 的云治理数据和功能通过 MCP 协议暴露给 AI 助手,实现自然语言交互和自动化。

Sqirvy MCP 服务器 (Go语言)

使用Go语言实现的Model Context Protocol (MCP)服务器,为LLM提供资源、工具及Prompt服务。

MCP 服务中心

一个基于MCP协议的服务工具集,提供对各类AI和外部服务的访问能力。

Go MCP SDK

Go语言实现的Model Context Protocol (MCP) 开发工具包,用于构建LLM客户端与外部环境交互的服务器和客户端应用。

MCP Go服务器入门示例

使用 Go 语言和 mcp-go 库构建的 MCP 服务器基础示例,展示工具、资源和提示词的实现。

Blue Bridge

Blue Bridge 是一个 MCP 服务器,用于无需密钥地查询和管理 Azure 资源。

mcp-tools示例服务器

演示如何使用 Go 和 Python 构建 MCP 服务器,提供资源访问和工具调用能力。

MCP Server Basic Example

一个使用Python实现的MCP服务器基础示例,演示了如何通过工具和资源为LLM提供上下文信息和功能扩展。

ZenMemory MCP 服务器

基于 MCP 协议和 Solana 构建的去中心化 AI 记忆基础设施,提供资源管理和工具能力。

Micro.mcp MCP服务器框架

Micro.mcp 是一个轻量级的 Python MCP 服务器框架,帮助开发者快速构建和部署符合 Model Context Protocol 标准的应用后端,用于管理资源、工具和 Prompt,为 LLM 应用提供上下文服务。

Acurast MCP 服务器

基于 Model Context Protocol 构建的 MCP 服务器,提供访问 Acurast 资源的接口,并支持脚本部署和处理器信息查询等工具。

AWS MCP Server

基于MCP协议的AWS工具服务器,为LLM提供AWS云服务和本地文件系统访问能力。

JS MCP Server

一个基于 JavaScript 开发的 MCP 服务器,用于管理资源、工具和 Prompt,为 LLM 应用提供上下文服务。

Project AIRI框架

Project AIRI是一个基于Web技术构建的AI VTuber框架,可以作为MCP服务器的基础设施,支持资源管理、工具注册和Prompt模板渲染等核心功能。

AEP MCP Server

基于 OpenAPI 规范的 MCP 服务器,提供资源和工具管理,通过标准输入输出与客户端通信。

Azure MCP Server

一个MCP服务器,使LLM客户端能够通过工具调用与Azure云服务进行交互,实现资源管理和信息查询等功能。

MCP Server应用脚手架工具

用于快速创建 Model Context Protocol (MCP) 服务器应用程序的脚手架工具,简化 MCP 服务器的初始化和开发流程。

AJ-MCP:轻量级Java MCP SDK

AJ-MCP 是一个轻量级的 Java SDK,用于构建 MCP 客户端和服务器,提供资源管理、工具注册和 Prompt 模板等核心 MCP 功能,支持 Stdio 和 SSE 传输协议。

Python A2A MCP Server

Python A2A MCP Server 是一个基于 FastAPI 的 Python 库,用于构建 Model Context Protocol (MCP) 服务器,为 AI 智能体提供工具和资源访问能力。

Azure PostgreSQL MCP Server

连接AI应用与Azure PostgreSQL数据库的MCP服务器,提供数据查询、管理工具及表结构资源访问。

Better Auth MCP Server

为 Better Auth 应用提供模型上下文协议 (MCP) 服务,管理资源、工具和 Prompt 模板,标准化 LLM 交互。

SupaMCP服务器

SupaMCP是一个跨平台的Model Context Protocol (MCP) 服务器实现,用C语言编写,支持资源和工具管理,并可作为网关路由请求。

MCP Python SSE Server

基于Python和SSE实现的MCP服务器,提供实时的LLM上下文服务和工具调用能力。

MCP服务器平台

基于FastAPI构建的MCP服务器,提供资源管理、工具注册和SSE通信能力,为LLM应用提供上下文服务。

MCP Lite

MCP Lite 是一个基于 Ruby 开发的轻量级模型上下文协议(MCP)服务器实现,旨在为 LLM 应用提供高效、可扩展的上下文服务框架。

Langchain NestJS MCP示例服务器

基于Langchain和NestJS构建的MCP服务器示例,演示了如何使用MCP协议提供上下文信息和工具能力。

Chef CLI for ADaaS

Chef CLI 是一个用于 ADaaS 配方开发的命令行工具,同时可以作为 MCP 服务器为 LLM 客户端提供上下文服务。

Autochat MCP Server示例 (基于FastMCP的示例服务器)

Autochat项目提供的MCP服务器示例,展示如何通过FastMCP框架构建和运行MCP服务器,为Autochat智能体提供资源和工具。

Axiom MCP Server

基于 Axiom 平台的 MCP 服务器实现,提供资源管理、工具注册和 Prompt 模板服务,支持 LLM 应用构建。

MCP PHP SDK

PHP SDK,用于构建 MCP 服务器和客户端,为 LLM 应用提供标准化的上下文服务框架,支持资源、工具和 Prompt 管理。

声明式MCP Java SDK

一个Java SDK,用于通过注解声明式地构建MCP服务器,简化资源和工具的定义与集成。

Arxiv MCP Server

基于Go语言实现的MCP服务器,专注于为LLM应用提供学术资源上下文和工具支持。

Pulumi MCP Server

通过MCP协议为LLM应用提供Pulumi基础设施管理和资源信息查询能力。

Kubernetes集群 MCP 服务器

该项目是一个基于 MCP 协议的服务器,允许 LLM 通过工具调用来管理和操作 Kubernetes 集群资源。

MCP Servers

提供Bun和Python两种语言实现的MCP服务器示例,用于演示如何构建和运行支持资源与工具管理的MCP后端服务。

B站API MCP服务器

一个基于MCP协议的服务器,旨在为LLM应用提供B站API的工具和数据资源访问能力。

Saiku MCP服务器

Saiku MCP服务器是基于Model Context Protocol的后端实现,旨在为LLM客户端提供资源、工具和Prompt模板管理等核心上下文服务。

OpenSumi 核心框架

用于快速构建AI原生IDE产品的框架,可作为MCP服务器为LLM客户端提供上下文服务。

Blaxel Python SDK (MCP Server)

Blaxel Python SDK 提供了一套用于构建和部署 MCP 服务器的工具,旨在简化大型语言模型(LLM)与外部上下文和功能集成的过程。

AIGNE Framework MCP服务器示例

AIGNE Framework 提供了一系列示例,展示了如何基于 Model Context Protocol (MCP) 构建和集成各种功能强大的服务器,如Puppeteer、SQLite和GitHub服务器。

Kopilot MCP Server

基于MCP协议的Kubernetes AI Agent,通过自然语言操作和管理Kubernetes资源。

D语言 MCP 服务器库 (mcp-d)

这是一个使用D语言编写的MCP服务器库,专注于通过stdio传输协议为AI语言模型提供上下文信息、工具和Prompt服务。

Spring AI MCP Demo Server

基于Spring AI构建的MCP协议演示服务器,提供资源、工具和Prompt模板管理功能。

go-modelcontextprotocol库

go-modelcontextprotocol是一个Go语言库,用于构建符合模型上下文协议(MCP)的服务端应用,提供资源管理、工具注册和Prompt模板定义等核心功能。

kom

kom 是一个 Kubernetes 操作工具,同时支持作为 MCP 服务器,提供 Kubernetes 资源管理能力,并可通过 SQL 查询资源。

MCP Python Demo Server

基于MCP协议的Python服务器示例,演示如何使用FastMCP SDK构建提供资源、工具和Prompt的LLM上下文服务。

Qwen-Agent MCP 服务器

Qwen-Agent 框架的 MCP 服务器组件,提供资源管理、工具注册和 Prompt 模板渲染等 MCP 协议核心功能,为 LLM 应用提供上下文服务。

Laravel MCP Server

基于Laravel框架实现的Model Context Protocol (MCP) 服务器,提供资源管理和工具调用功能,用于连接LLM客户端。

Ragie TypeScript MCP服务器

Ragie TypeScript MCP服务器是一个基于Model Context Protocol的应用后端,为LLM应用提供资源管理、工具注册和Prompt模板服务。

Spring AI MCP Server示例

基于Spring AI框架构建的MCP服务器示例,用于演示如何为LLM应用提供上下文服务,包括资源管理、工具调用和Prompt模板渲染等核心功能。

Modal MCP Server

Modal MCP Server 是一个基于 Model Context Protocol 的后端实现,专注于提供 Modal 云计算平台上的卷管理和应用部署功能,方便 LLM 应用安全访问和操作 Modal 资源。

HoneyHive TypeScript SDK MCP Server

HoneyHive TypeScript SDK 提供可安装的 Model Context Protocol (MCP) 服务器,将 SDK 方法作为工具暴露给 AI 应用,以管理上下文和功能。

TODO应用MCP服务器

基于Cloudflare Workers和Stytch的TODO应用MCP服务器,提供资源管理和工具调用能力,扩展传统应用以支持AI Agent。

Open Manus

Open Manus 是一个开源框架,旨在构建类似 MCP 服务器的功能,为 AI 代理提供工具、资源和 Prompt 管理,提升企业级 AI 应用的上下文处理能力。

MCP文件系统服务器 (Go)

基于MCP协议的文件系统服务器,允许LLM客户端安全访问和操作服务器端文件系统资源。

MCP-Go 服务器

基于 Go 语言实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具注册和 Prompt 模板等核心功能,用于构建 LLM 应用的上下文服务后端。

MCP SSE示例服务器

这是一个基于Server-Sent Events (SSE) 的Model Context Protocol (MCP) 服务器示例,展示了如何使用SSE协议构建支持工具和资源的Web应用后端。

StrawMCP Dart SDK

StrawMCP Dart SDK 提供 MCP 协议的 Dart 实现,用于构建 LLM 应用的上下文服务后端。

Fast MCP

Fast MCP 是一个 Ruby 库,旨在简化 Ruby 应用程序与 AI 模型之间的集成,实现基于 Model Context Protocol 的上下文信息和功能共享。

NestJS MCP模块

基于NestJS框架,快速构建Model Context Protocol (MCP) 服务器的模块,简化资源、工具和Prompt的管理与暴露。

Kom MCP Server

Kom MCP Server基于Kom Kubernetes操作库,通过Model Context Protocol为LLM客户端提供Kubernetes资源上下文信息和管理工具。

MongoDB MCP Server示例

一个基础的MCP服务器示例,演示了如何使用Model Context Protocol (MCP) 框架提供资源列表,为后续MongoDB集成奠定基础。

Chat-AI 服务端

基于gRPC构建的LLM应用后端,提供资源管理、模型服务和上下文支持,可作为MCP服务器使用。

Dify MCP Server

Dify MCP Server是基于Model Context Protocol的应用后端,为Dify AI应用提供资源、工具和Prompt模板的托管、管理和执行能力,支持LLM客户端通过JSON-RPC协议进行交互。

Pollinations MCP Server

Pollinations MCP 服务器是一个开源实现,旨在为 AI 助手提供上下文和功能,支持资源管理、工具执行和 Prompt 模板渲染,并通过 JSON-RPC 协议进行通信。

MCP Demo Server (Python)

基于FastMCP框架实现的Python MCP服务器示例,提供算术工具和动态问候资源,可通过SSE或Stdio协议与客户端通信。

Test SSE Server

C#实现的MCP协议SSE测试服务器,提供资源、工具和Prompt管理功能,用于验证和测试MCP客户端的连接与交互。

MCP SDK for PHP

PHP实现的Model Context Protocol SDK,用于构建MCP客户端和服务器,标准化LLM上下文处理。

TSW知识库MCP服务器

TSW知识库MCP服务器提供基于MCP协议的知识库资源访问服务,允许LLM客户端通过标准化的方式获取和利用知识库信息。

Ollama MCP示例服务器

基于MCP协议实现的示例服务器,集成Ollama模型,提供数学计算工具和动态问候资源。

MCP文件系统服务器

将本地文件系统目录作为MCP资源暴露给LLM客户端,并实时推送文件变更通知。

go-mcp MCP服务器

go-mcp 是一个用 Go 语言实现的 Model Context Protocol (MCP) 服务器,旨在为 LLM 应用提供资源、工具和 Prompt 管理等上下文服务。

Hello World MCP服务示例

一个简单的MCP服务器示例,提供问候资源、助手Prompt和Echo工具,演示MCP服务器的基本功能。

Memory MCP Server

基于知识图谱的MCP服务器,提供实体、关系和观察的管理与查询功能,支持数据持久化。

Filesys MCP服务器

Filesys MCP服务器提供通过MCP协议安全访问预配置目录中文件内容和元数据的功能。

TeaApp MCP Server API

基于Model Context Protocol的MCP服务器,提供笔记管理和LTE展会信息查询功能,演示了资源、工具和Prompt等核心概念。

MCP Python SDK

Model Context Protocol (MCP) Python SDK 提供了一套全面的工具,用于构建兼容 MCP 协议的服务器和客户端应用,简化 LLM 应用的上下文管理。

MCP测试服务器

一个用于Model Context Protocol (MCP) 协议的简单测试服务器,提供资源、工具和Prompt模板管理功能。

LSPD审讯模拟MCP服务器

基于Model Context Protocol (MCP) 构建的警察审讯模拟服务器,使用OpenAI生成审讯对话和嫌疑人回应,提供警官信息和审讯流程管理等资源。

MCP上下文管理服务器示例

一个基础的MCP服务器实现,提供资源管理、数据访问和上下文服务,包含天气数据示例服务器。

Demo MCP Server

基于 Model Context Protocol 的演示服务器,提供知识存储和检索功能,并通过工具和资源暴露给 MCP 客户端。

MCP服务器示例

一个简单的MCP服务器示例,演示了资源、工具和Prompt模板的定义与使用,支持Stdio和SSE传输协议。

Symfony MCP服务器Bundle

此Symfony Bundle为开发者提供构建MCP服务器的框架,方便在Symfony应用中集成和管理AI工具与资源,符合MCP协议标准。

MCP简易示例服务器

一个简单的MCP服务器示例,展示了资源、Prompt和工具管理,支持SSE和Stdio传输。

Panaversity MCP Demo Server

基于FastMCP框架构建的演示MCP服务器,提供资源和工具管理,用于增强LLM应用上下文。

Qt MCP 服务器

Qt MCP 服务器是一个基于 Qt 框架实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具执行和 Prompt 模板处理等核心功能,用于构建模型驱动的应用后端。

SkySQL MCP Server

基于FastAPI框架实现的MCP服务器,提供工具、资源和Prompt管理,集成SkySQL API。

mcp-go

mcp-go 是一个用 Go 语言编写的 Model Context Protocol (MCP) 服务器实现,旨在简化 LLM 应用与外部数据源和工具的集成。

Authed MCP服务器集成

Authed MCP服务器集成方案,为AI Agent提供安全认证的Model Context Protocol服务。

mcp-ectors

mcp-ectors 是一个高性能的 MCP SSE 服务器,使用 Rust 和 Actors 构建,旨在为 LLM 提供工具、资源和 Prompt 模板的集成和管理能力。

Orq MCP Server

Orq MCP Server提供开发者友好的Typescript SDK 和 MCP 服务器实现,用于管理 LLM 应用的资源、工具和 Prompt,符合 Model Context Protocol 标准。

MCP Clojure SDK

用于构建 MCP 服务器的 Clojure SDK,提供资源、工具和 Prompt 模板管理功能。

MCP Go SDK

MCP Go SDK 是一个用于构建 Model Context Protocol (MCP) 服务器和客户端的 Go 语言工具包,旨在为 LLM 应用提供标准化的上下文服务。

Getting Started with MCP

该项目提供了一个基于FastMCP框架的简单MCP服务器示例,演示了如何定义和注册工具(Tool)和资源(Resource),为LLM应用提供基础的上下文服务能力。

mcp

mcp.rs 是一个用 Rust 语言实现的高性能 Model Context Protocol (MCP) 服务器,旨在为 AI 应用提供标准化的上下文和资源访问能力。

mcp custom server

该项目是一个使用TypeScript开发的自定义MCP服务器,提供了资源、工具和Prompt模板的管理功能,旨在扩展大型语言模型的能力。

mcp payment example

基于Model Context Protocol的支付系统示例,演示如何构建可与AI模型集成的应用后端,提供支付处理、欺诈检测和货币汇率等功能。

edge agents

Agentics Edge Functions提供了一个基于Supabase Serverless平台的Model Context Protocol (MCP) 服务器实现,用于管理AI Agent的资源和工具。

MCP Server

该项目是一个MCP服务器示例,用于管理学生数据,通过资源提供学生列表,并通过工具支持学生信息的查询和添加功能。

puzzlebox

Puzzlebox是一个MCP服务器,用于托管和管理有限状态机(Puzzle)作为动态资源,提供工具供客户端订阅和操作状态机,应用于多智能体协同和流程管理。

MCP server template

MCP-server-template 是一个用于构建 Model Context Protocol (MCP) 服务器的综合模板,基于 TypeScript/Node.js,提供标准化结构和最佳实践。

mcp server

一个基础的MCP服务器示例,提供笔记存储、总结和添加工具,演示了如何构建符合Model Context Protocol的应用后端。

ESP32MCPServer

ESP32MCPServer是基于 Model Context Protocol 的服务器实现,专为 ESP32 微控制器设计,通过 WebSocket 提供资源管理和实时数据更新服务,适用于连接 LLM 应用。

MCP Server for MAS Developments

该项目是基于 Model Context Protocol 的服务器实现,用于管理资源、工具和 Prompt 模板,为 LLM 应用提供上下文服务。

mcp typed prompts

mcp-typed-prompts仓库是一个Python实现的Model Context Protocol (MCP) SDK,它不仅包含了构建MCP客户端的工具,也提供了FastMCP服务器框架,用于快速搭建和运行MCP后端服务,以标准化方式向LLM应用提供资源、工具和Prompt模板。

mcp go

Go语言MCP服务器SDK,提供资源、工具和Prompt模板管理功能。

mcpserver

一个演示性质的MCP服务器,用于管理和提供Istio配置资源,例如VirtualService、ServiceEntry和EnvoyFilter,通过gRPC协议提供MCP服务。

model context protocol rb

该Ruby库提供了一个实验性的Model Context Protocol (MCP) 服务器实现,允许开发者使用Ruby构建兼容MCP协议的后端服务。

mcp rb

mcp-rb 是一个 Ruby 框架,用于构建 MCP 服务器,便捷地定义和管理资源与工具,为 LLM 应用提供上下文服务后端。

hermes mcp

Hermes MCP 是一个用 Elixir 开发的 MCP 服务器和客户端库,提供了高性能的 MCP 协议服务端实现,支持资源、工具和 Prompt 管理。

easy mcp

easy-mcp 是一个使用 TypeScript 开发的 MCP 服务器框架,旨在简化资源、工具和 Prompt 的定义与管理。

kotlin sdk

kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。

mcp framework

一个用于构建模型上下文协议(MCP)服务器的TypeScript框架,提供工具、资源和Prompt的自动发现、多种传输协议和身份验证等功能,简化MCP服务器的开发流程。

python sdk

基于 Model Context Protocol 的 Python SDK,用于构建 MCP 客户端和服务器,便捷地为 LLM 应用提供上下文服务。

mcp go

riza-io_mcp-go 是一个 Go 语言实现的 Model Context Protocol (MCP) SDK,提供构建 MCP 服务器和客户端的能力,支持资源、工具和 Prompt 管理,并通过 Stdio 等传输协议与 LLM 客户端通信。

mcp registry

FastMCP-HTTP 是一个基于HTTP协议的MCP服务器实现,包含独立的MCP服务器、客户端以及MCP注册中心,用于管理和访问工具、资源和Prompt模板。

python sdk

modelcontextprotocol_python-sdk 是一个Python SDK,用于构建 Model Context Protocol (MCP) 服务器,方便开发者为LLM应用提供标准化上下文服务。

quarkus mcp server

Quarkus MCP Server扩展,简化了基于Quarkus框架构建Model Context Protocol (MCP) 服务器的流程,支持资源、工具和Prompt模板的声明式API。

mcp server client

该项目是一个基础的MCP服务器示例,使用TypeScript SDK实现,演示了如何通过stdio传输协议提供资源列表和读取功能,适用于学习和理解MCP服务器的基本构建。

test python mcp server

一个简单的Python MCP服务器,用于管理笔记,允许客户端添加、总结和访问笔记资源。

convex mcp server

基于Convex云平台的MCP服务器示例,提供简单的笔记资源管理和创建笔记工具。

mcp server on raspi

一个在树莓派上运行的MCP服务器,提供简单的笔记存储和总结功能,演示了资源管理、Prompt模板和工具注册的核心MCP服务器能力。

mcp proxy server

MCP代理服务器,聚合多个后端MCP资源服务器,通过统一接口向客户端提供资源、工具和Prompt服务。

mcp framework

mcp-framework是一个用于构建Model Context Protocol (MCP) 服务器的TypeScript框架,提供工具、Prompt模板和资源管理等核心功能,简化MCP服务器开发流程。

cloneserver

该仓库提供了一系列MCP协议服务器的示例实现,演示了资源管理、工具调用和Prompt模板等核心功能,涵盖文件系统、Google Drive、PostgreSQL和Git等多种数据源。

mcp

Python Filesystem MCP Server提供基于REST API的文件系统操作,使LLM客户端能够安全访问和管理服务器上的指定目录中的文件和文件夹。

dice server

dice-server 是一个基于 MCP 协议的简单笔记服务器,允许用户通过客户端创建、读取、列出和总结文本笔记。

mcp server template

一个简单的MCP服务器模板,用于管理文本笔记,演示了如何使用资源、工具和Prompt向LLM客户端提供上下文信息和功能,可作为开发MCP服务器的起点。

mcp kotlin sdk

MCP Kotlin SDK 提供构建和运行 MCP 服务器及客户端的能力,示例代码展示了资源和工具管理功能。

pylon

Pylon 是一款桌面应用程序,内置 MCP 服务器,为 LLM 客户端提供资源管理、工具调用和 Prompt 模板服务,支持文件系统资源访问和 Ollama 模型集成。

rhdh granite proto

原型MCP服务器,集成Red Hat Developer Hub,提供访问和查询RHDH目录中资源、API和推理服务器的工具。

mcp client and server

一个简单的MCP服务器实现,提供笔记存储、总结和管理功能,演示了如何通过MCP协议扩展LLM应用的能力。

notes

一个基于 Model Context Protocol 的笔记服务器,提供笔记的存储、检索、总结和添加功能,可通过 MCP 协议与 LLM 客户端交互。

ghl mcp api

该项目是一个MCP服务器,专注于Go High Level (GHL) API 密钥的管理,为LLM应用提供GHL API的访问能力。

mcp server fetch

该项目是一个 MCP 服务器实现,专注于提供数据获取服务,可能通过工具或资源管理来增强 LLM 的上下文能力。

convex mcp server

convex-mcp-server 是一个基于 Model Context Protocol (MCP) 的服务器实现,提供笔记管理功能,允许LLM客户端通过资源访问和工具调用来管理和创建文本笔记。

cli mcp

一个基于MCP协议的服务器,允许LLM客户端探索和执行本地命令行工具,并以资源形式提供命令行工具的结构化信息。

my mcp claude

一个简单的MCP服务器,提供备忘录管理功能,包括资源化管理备忘录、通过Prompt总结备忘录以及使用工具添加备忘录,旨在与Claude等LLM客户端集成。

goai

GoAI库提供了一个灵活的MCP服务器实现,支持资源管理、工具注册、Prompt模板定义,并通过JSON-RPC协议与LLM客户端通信,构建可扩展的AI应用后端。

QR Code Generator

一个基于Model Context Protocol (MCP) 的服务器,提供QR二维码生成功能,包括资源管理、工具调用和Prompt模板支持。

PeakMojo

PeakMojo Server 是一个 Python MCP 服务器,它将 PeakMojo API 的资源和工具以标准化的 MCP 协议形式暴露给 LLM 客户端,实现 LLM 对 PeakMojo 功能的访问和控制。

Dojo

Dojo MCP Server是一个基于Go语言实现的MCP服务器,提供资源管理、工具注册和Prompt模板渲染等功能,旨在为LLM应用提供上下文服务。

Resource Hub

Resource Hub Server作为代理MCP服务器,连接到中心Resource Hub以访问共享工具、资源和提示。

LLMling

LLMling Server是一个YAML配置驱动的MCP服务器,为LLM应用提供资源、工具和Prompt管理功能,支持Stdio和SSE等多种传输协议。

Replicate

基于FastMCP框架实现的Replicate API服务器,提供AI模型推理的资源访问和图像生成功能。

Universal Source Management System

基于FastMCP框架实现的文献和知识图谱管理服务器,提供文献资源的管理、检索和关联实体的功能。

Columbia MCP Servers

Columbia MCP Servers仓库是为LLM应用构建的后端服务,基于Model Context Protocol (MCP) 提供资源管理、工具注册和Prompt模板服务,支持Docker部署和高可用架构。

Lodestar MCP

Lodestar MCP 是一个基础的MCP服务器实现,用于文档查询,提供了资源和工具的示例,展示了MCP服务器的基本结构和功能。

Azure MCP

Azure MCP是一个MCP服务器,旨在桥接Claude Desktop与Azure云平台,通过自然语言实现Azure资源的管理和查询。

HuggingFace Space

mcp-hfspace 是一个 MCP 服务器,它连接了 Claude Desktop 等 MCP 客户端与 Hugging Face Spaces,使得用户可以通过 Claude 等工具调用 Hugging Face Spaces 上托管的各种模型和服务,例如文生图、语音合成、视觉模型等。