← 返回首页

"模型上下文协议"标签的搜索结果

找到 132 个结果

Embabel-Agent-MCP Server 示例

基于 Spring Boot 的 MCP(模型上下文协议)服务器实现示例,提供工具暴露、资源管理与 prompts 渲染等核心能力,支持通过 SSE 进行 JSON-RPC 通信,作为 LLM 客户端的上下文与功能后端。包含 Kotlin 与 Java 两种实现以及可直接运行的服务器启动脚本,适配 Claude Desktop 等 MCP 客户端进行集成测试与演示。

ralph-starter MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和提示模板等上下文能力,面向 LLM 客户端以标准化的 JSON-RPC 形式进行交互,支持多传输协议并实现会话管理与能力声明。

Claude-Playwright MCP 服务器

基于 Model Context Protocol 的 MCP 后端,为大语言模型提供上下文资源、工具调用和提示模板渲染等能力,支持 JSON-RPC 通信及多传输协议扩展,内置浏览器自动化与会话/缓存等核心模块。

Hack MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端以标准化方式提供上下文资源、可调用工具、以及可定制的提示模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理与多种传输协议(如 STDIO、SSE、WebSocket),实现资源/工具/提示的托管、注册与渲染,面向本地开发环境的可扩展上下文服务。

Sentinel MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,使用 JSON-RPC 规范与客户端通信,提供 MCP 初始化、工具列表以及工具调用等基本服务器端能力,用于向 LLM 客户端暴露资源、工具与提示渲染等上下文服务。

mcp-use

基于 Model Context Protocol (MCP) 的完整 MCP 服务端框架与生态系统,提供可扩展的 MCP 服务器实现、资源与工具托管、提示模板渲染,以及通过 JSON-RPC 与客户端通信的能力,支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,适用于搭建支持 LLM 的上下文服务后端。

NLWeb MCP 服务器接口

基于 NLWeb 的 MCP 服务器实现,提供资源、工具和提示模板的标准化访问,并通过 JSON-RPC 与客户端通信,将请求转发到 NLWeb 后端实现具体功能。

Obsidian 本地 MCP 服务器插件

在 Obsidian 中实现一个基于 Model Context Protocol 的 MCP 服务器,提供资源、工具与提示模板的后端服务,并通过 JSON-RPC 与客户端进行交互,支持并发会话、HTTP/HTTPS 传输以及安全访问控制。

Toolkit-MD MCP 服务端

基于模型上下文协议(MCP)的后端实现,提供对 Markdown 内容资源的托管与管理、工具注册与执行,以及可渲染的 Prompt 模板,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用和提示渲染等交互,包含可运行的服务器端代码与完整工具集。

term-llm MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供外部工具注册、资源管理和提示渲染等能力,并通过 JSON-RPC/stdio 等传输与客户端进行交互。

Infinity-API MCP Bridge

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器实现,将 Infinity-API 的 FastAPI 应用通过 MCP 桥接暴露为可被 LLM 客户端通过 JSON-RPC 调用的上下文服务,支持资源、工具、提示等的统一管理与访问,并在同一应用中同时提供 REST API 与 MCP 服务。

News Digest MCP Server

基于模型上下文协议(MCP)的后端服务器实现,处理 JSON-RPC 请求,提供初始化、工具列表以及将 Claude 的 selections 写入本地文件的能力,并附带输入校验与日志记录。

MeetGeek MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向大语言模型客户端提供会议数据资源、工具调用和提示模板等上下文服务,并通过 JSON-RPC 进行通信。

AI Gateway MCP 服务器实现合集

基于 Model Context Protocol (MCP) 的企业级后端服务集合,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,用于向大语言模型客户端提供上下文与外部功能访问。仓库中包含多种以 MCP 为核心的服务器实现示例,支持不同传输方式(SSE、HTTP、stdio 等)与部署场景,覆盖从工具注册到调用、以及与外部系统的集成等完整场景。

Google Cloud DevOps MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器,向大语言模型(LLM)客户端提供标准化的上下文服务,包括资源(Resources)的管理、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染;通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议(如 STDIO、SSE、WebSocket)的扩展能力。

Consult LLM MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供 consulta_llm 工具、资源上下文和提示模板,支持 JSON-RPC 请求/响应,当前实现通过 STDIO 传输进行通信,具备资源管理、工具注册与执行、以及提示渲染等核心能力。

The Dead Internet MCP Hub

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的标准化对外接口,通过 JSON-RPC/SSE 与 LLM 客户端进行交互,提供会话管理、能力声明以及多传输协议支持的 MCP 服务端能力。

Agentic-MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务集合,提供资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持 JSON-RPC 风格通信和 STDIO/WebSocket 等传输协议,用于向 LLM 客户端暴露上下文、工具和资源等能力。

Hatch MCP 服务器端

基于 Hatch CLI 的 MCP(模型上下文协议)后端实现,提供资源与数据访问、工具注册与执行、以及 Prompts 渲染等能力。服务器通过 JSON-RPC 与 AI 客户端通信,注册多种工具并暴露给客户端,支持通过标准输入/输出(stdio)等传输方式进行交互,适合作为 LLM 助手的上下文与功能服务端。该实现包含完整的服务器端逻辑、工具注册、认证、以及与 Hatch API 的交互。

kemdiCode MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向 AI 客户端以标准化方式提供资源管理、工具注册与执行,以及提示模板渲染等功能,采用 JSON-RPC 与客户端通信并支持多种传输通道。

AIDA MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,作为 AI 助手与 Exegol 安全评估环境之间的中枢,为客户端提供标准化的上下文服务:托管与管理 Resources、注册与执行 Tools、定义与渲染 Prompts,并通过 JSON-RPC 与客户端进行通信与协作。该实现包含可运行的 MCP 服务器代码及相关工具、资源和工作流集成,适配本地开发及容器化部署场景。

Codebase Context MCP 服务器

Codebase Context 的 MCP 服务器实现:基于 Model Context Protocol (MCP),通过 JSON-RPC 与客户端交互,向 LLM 客户端提供上下文信息、资源、工具以及可渲染的提示模板。服务器负责会话管理、能力声明、索引与向量检索等核心后端功能,并支持本地化部署(如通过 Stdio 传输进行 MCP 连接)。

Photoshop MCP 服务器

基于 Model Context Protocol (MCP) 的 Photoshop 后端实现,提供将资源、工具执行能力和提示模板等以标准化 JSON-RPC 形式暴露给 LLM 客户端的后台服务,能够在 MCP 客户端与 Photoshop 的 UXP 环境之间进行交互、执行脚本、读取模式与架构信息并返回结果。

Sofia Intuition MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端提供资源托管、工具注册与执行,以及可渲染的 Prompt 模板等标准化上下文服务,支持多种传输协议(如 SSE、HTTP)并通过 JSON-RPC 与客户端交互。

OpenBotAuth MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供策略评估、计费意图创建与使用计量等工具,通过 JSON-RPC 与 LLM 客户端交互,支持多种传输方式,作为 AI 代理上下文服务的核心服务器组件。

Knowledge Agent MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,用于向 LLM 客户端提供资源、工具和提示模板的标准化上下文与功能服务,支持多传输协议并通过 JSON-RPC 进行通信。

LightMem MCP 服务器

LightMem 的 MCP 服务端实现,使用 Model Context Protocol 提供资源、工具与提示模板的注册与执行,以 JSON-RPC 形式与 LLM 客户端交互。

Chak-MCP 服务器实现与示例

基于 Model Context Protocol(MCP)的服务器实现与示例生态,提供可运行的 MCP 服务器示例、工具暴露与管理,以及用于客户端接入的工具库,帮助构建以 MCP 为载体的上下文服务后端。

Tools 模型上下文协议(MCP)服务器端实现

基于 Model Context Protocol 的 MCP 服务器端实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,面向大语言模型(LLM)客户端提供标准化的上下文服务。

MCP Rubber Duck 服务器端

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 与客户端进行交互,支持多种传输协议、会话管理、能力声明以及外部桥接等扩展能力,用于为大语言模型应用提供可扩展的上下文服务框架。

CyberMem MCP 服务器端实现

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源(Resource)、工具(Tools)和提示模板(Prompts)的注册、管理与渲染,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议(如 Stdio、HTTP 流和 SSE)。实现了会话管理、能力声明以及对外暴露的内存引擎(OpenMemory/SQlite),可用于在本地或远程环境中为LLM客户端提供统一的上下文服务。

GenAI MCP 服务端集合

一个实现模型上下文协议(MCP)核心功能的后端服务器集合,提供 Weather、Tech News、Math 等 MCP 服务端实现示例。基于 FastMCP 库构建并通过标准的 MCP 传输(如 stdio)暴露工具接口,便于 MCP 客户端注册、请求资源与执行工具,形成标准化的上下文服务后端。

HA Claude Assistant MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 方式暴露 Home Assistant 的资源、工具与提示模板,支持通过 MCP 客户端调用读取实体、执行服务、管理排程等功能。

You.com MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册、资源管理和内容/搜索相关能力,支持通过 JSON-RPC 与客户端通信,涵盖 STDIO 与 HTTP 两种传输方式的 MCP 服务端实现。

Altmetric MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端暴露工具(Tools)与外部数据源访问能力,通过 JSON-RPC 风格的请求/响应进行交互,并支持 STDIO 传输以便与本地或嵌入式 LLM 集成。

Miroir MCP 服务器

基于模型上下文协议(MCP)的后端服务器,实现资源/工具/提示模板的托管与对外能力暴露,支持 JSON-RPC 请求、SSE 实时传输和会话管理,为 LLM 客户端提供标准化的上下文服务。

Deepeval MCP Bridge

将 deepeval-wrapper 的评估逻辑通过 MCP 接口暴露为 FastAPI 服务,提供对 MCP 客户端的标准化上下文评估能力与对 wrapper 的直接访问能力。

Fulcrum MCP 服务器实现

基于 Model Context Protocol 的 MCP 后端实现,提供资源管理、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 与客户端进行交互,具备会话管理与多传输通道支持,适用于向大语言模型客户端提供结构化上下文与外部功能入口。

简单MCP 服务器示例

基于模型上下文协议的简单MCP服务器实现,提供工具注册与执行、资源管理、以及Prompt/模板等核心能力,采用JSON-RPC通过标准输入输出(stdio)与客户端通信,便于教育演示和本地测试。

TalkToFigma Desktop MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和提示模板的管理与执行,通过 JSON-RPC 与客户端通信,支持多种传输协议(stdio、WebSocket、SSE),用于向大语言模型(LLM)提供可扩展的上下文服务。

Claude Agent Ruby MCP Server

基于 Model Context Protocol (MCP) 的在进程内 Ruby 实现的 MCP 服务器,用于向 Claude Agent 提供工具、资源和提示等上下文能力,并通过 JSON-RPC 风格的 MCP 协议进行通信。

Marketing AI MCP

基于 Model Context Protocol (MCP) 的后端实现与运行环境,包含一个可运行的 Google Forms 相关 MCP 服务器以及用于托管和管理 MCP 子服务器的后端支持,能够通过 JSON-RPC/标准输入输出(stdio)等方式与 MCP 客户端交互,提供工具执行、资源管理与请求协同能力。

Maestro 状态报告 MCP 服务器实现(Rust STDIO JSON-RPC)

基于 Model Context Protocol 的 MCP 服务器实现,提供 maestro_status 工具用于向 Maestro UI 汇报会话状态,并通过 JSON-RPC 与客户端交互,支持 initialize、tools/list、tools/call、notifications/initialized 等消息。服务器通过 STDIO 与 MCP 客户端通信,兼容 Maestro 的状态上报与会话管理,集成在 Maestro 的 Tauri 应用中用于多会话上下文服务。

AgentMesh MCP Tool Server

基于 AgentMesh 治理的 MCP 工具服务器,提供对 MCP 请求的策略管控、审计、信任验证与响应等核心能力,并通过 JSON-RPC 与客户端通信。

Orchestra MCP 服务器

基于 Model Context Protocol 的后端服务,使用 FastAPI 构建,提供资源、工具与提示模板等 MCP 功能,并通过 JSON-RPC 与客户端通信为大型语言模型客户端提供上下文和能力服务(如资源访问、工具调用与提示渲染)。服务器通过对外暴露的 MCP 路由实现对接、会话管理与多传输协议的支持(如 SSE/StdIo/WebSocket 等),以实现可扩展的上下文服务框架。

Raku MCP SDK

基于 Model Context Protocol (MCP) 的完整服务器端实现与示例,提供 JSON-RPC 2.0 交互、Stdio/HTTP 等传输、资源/工具/提示的管理,以及会话与扩展能力,面向将 MCP 服务化以供 LLM 客户端调用的后端应用。

AutoForge MCP 服务端

基于模型上下文协议(MCP)的后端实现,用于向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染等能力,并通过 JSON-RPC/WebSocket 等传输协议进行通信。本仓库包含完整的服务端实现、工具暴露、Prompts 加载与渲染、会话管理以及安全策略,能够作为可运行的 MCP 服务器端提供上下文服务。

tooltest MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/管理、Prompt 的定义与渲染,以及会话管理与协议能力声明,支持通过标准输入输出或流式 HTTP 等传输协议与客户端进行 JSON-RPC 通信,用于为大型语言模型(LLM)提供上下文信息与外部功能访问能力。

Jarvis MCP 服务端 + Agent

基于模型上下文协议(MCP)的后端服务,提供资源、工具和提示模板的管理与渲染,并通过 JSON-RPC 与 LLM 客户端通信;内置 Notion 数据源作为底层存储,包含一个独立的 Agent 服务用于将自然语言转化为可执行工具调用。

Agent Chatroom MCP Server

一个基于 Model Context Protocol (MCP) 的后端服务,提供多代理协作聊天与协调工具,通过 MCP 接口暴露 chatroom_join、chatroom_broadcast、chatroom_check、chatroom_ask、chatroom_leave 等工具,并通过 WebSocket 实时路由消息给 Claude Code 客户端。

Actionbook MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器,为大语言模型客户端提供规范化的资源管理、工具注册与执行、以及可渲染的 Prompt 模板等上下文服务,支持 JSON-RPC 通信、会话管理与多传输通道。

模型上下文协议(MCP)后端服务器实现—Cocos CLI 组件

基于模型上下文协议(MCP)的后端服务器实现,专注为大语言模型客户端提供标准化的上下文服务:托管资源、注册并执行工具、定义和渲染Prompt模板;通过 JSON-RPC 进行通信,具备会话管理与能力声明,并支持多种传输通道,以实现安全、可扩展的上下文服务框架。

Conscious Bot MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,作为 LLM 客户端的标准化上下文服务入口,提供资源托管、工具注册/执行、提示模板定义与渲染等能力,并通过 JSON-RPC 与前端/其他组件进行通信,支持嵌入式部署与回退模式,便于实现可扩展的上下文服务框架。

Verkada 模型上下文协议服务器端实现

基于模型上下文协议(MCP)的 Verkada API 后端服务器,提供资源管理、工具注册与执行,以及提示模板渲染等能力,通过 JSON-RPC 与大语言模型客户端进行通信,具备本地部署与扩展能力,并内置对 Verkada API 的工具集和请求处理框架。

Path402 MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为对话型LLM客户端的后端服务,托管并管理资源(Resources)、注册与执行工具(Tools)、定义并渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输方式,提供会话管理和能力声明的上下文服务框架。

VMark MCP 服务器

基于 Model Context Protocol 的完整 MCP 服务器实现,提供资源管理、工具执行、以及与 LLM 客户端的 JSON-RPC 风格通信,支持多种传输路径与本地侧车集成。

Dolibarr MCP 服务器端实现

基于 Model Context Protocol 的 Dolibarr ERP/CRM 的 MCP 服务器实现,提供资源/工具/提示等上下文服务,支持 STDIO 与 HTTP 传输,通过 MCP 协议与客户端进行 JSON-RPC 交互,实现对 Dolibarr 的完整后端集成能力。

AdCP销售代理 - MCP上下文协议服务器实现

基于模型上下文协议(AdCP)的后端服务器实现,提供资源(Resources)托管与管理、工具(Tools)注册及执行、以及提示模板(Prompts)的定义与渲染,并通过JSON-RPC 与客户端通信,支持多租户、多传输协议(如官方的Stdio、SSE、WebSocket)以为LLM应用提供安全、可扩展的上下文服务框架。

Metronome MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源/上下文能力的托管,以及通过 JSON-RPC 与客户端通信的能力,支持多种传输方式(stdio、HTTP),用于为 LLM 客户端提供稳定、安全、可扩展的上下文服务。

MCPChecker-MCPServer

基于 Model Context Protocol 的可运行 MCP 服务器实现与测试框架,提供工具、资源托管、工具调用执行、以及对扩展与评测的支持,便于对接大语言模型客户端进行上下文服务测试和集成验证。

Claude Code Harness MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现。该服务器通过 JSON-RPC 提供对工具的注册与执行、会话管理及跨客户端通信能力,支持多工具整合、Plans 与会话监控等功能,并通过标准传输(如 STDIO)与 MCP 客户端进行交互。该实现可作为 LLM 客户端(如 Claude Code、Codex 等)访问的上下文服务后端。

v1.npm MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供 npm 包的上下文、健康数据与可用工具,通过 JSON-RPC 形式处置资源、工具、提示模板等能力,并支持 MCP 客户端的连接与调用。

CrawlChat MCP 服务端实现

基于模型上下文协议的 MCP 服务器实现,提供资源、工具和提示模板的后端能力,通过 JSON-RPC 与客户端通信,注册并执行工具、管理会话并支持简单的 stdio 传输。

MoonBit MCP 服务器端 SDK

基于 MoonBit 的 MCP 服务器实现,向 LLM 客户端提供资源托管、工具注册和提示模板等上下文服务,并通过 JSON-RPC 进行稳定的通信。

Helpmaton MCP 服务端实现

基于 Model Context Protocol(MCP)的服务端实现,提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与 LLM 客户端通信,管理会话与能力声明,并具备多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,用于对接外部数据源、工具和上下文提示等,实现对 LLM 的上下文服务提供与编排。

discord-py-self-mcp

基于 Model Context Protocol 的 MCP 服务器实现,用于将一个 Discord 自助账户的资源、工具与对话模板通过标准化的 MCP JSON‑RPC 后端对接到 LLM 客户端,支持 stdio 传输并以 JSON-RPC 提供资源、工具执行与提示渲染等功能。

The Situation Room MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供标准化的资源、工具、Prompts 等能力,通过 JSON-RPC 与客户端通信,支持公开的 MCP 接入点与工具集注册,便于 LLM 客户端获取上下文信息、执行外部功能与获取 Prompt/模板等能力。

Brave Real Browser MCP Server

基于模型上下文协议(MCP)的服务端实现,提供资源管理、工具注册与执行、以及Prompt模板渲染等核心功能,通过JSON-RPC与LLM客户端通信,支持多传输协议(如STDIO、WebSocket、SSE),并在浏览器自动化场景中实现对Brave浏览器及Puppeteer的可扩展上下文服务,适合为LLM代理提供可控、可扩展的上下文和能力服务。

MCPProxy-Go 服务端实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源与工具的托管与管理、提示模板渲染、以及对外部 MCP 客户端的工具注册与执行能力;同时内置认证、秘密管理、Docker 隔离等安全与扩展特性,支持多传输协议(HTTP/SSE、stdio、WebSocket 等)并通过 JSON-RPC 与客户端通信,形成面向 LLM 场景的上下文服务框架。

PyOMOP MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供对 OMOP CDM 数据库的资源、工具与 Prompt 的标准化暴露,并通过 JSON-RPC/TCP/HTTP 等传输方式与 LLM 客户端进行交互。该实现包含服务器端工具、提示、示例查询及 SQL 执行能力,支持本地 Stdio 以及 HTTP 传输。

FluidMCP

基于 Model Context Protocol 的多 MCP 服务器后端网关,提供统一的 JSON-RPC 服务来托管资源、注册工具并渲染提示模板,通过 FastAPI 将多个独立 MCP 服务器整合为一个可扩展的上下文服务入口。

Agentic QE MCP Server

基于 Model Context Protocol 的后端服务,作为 MCP 服务器向 LLM 客户端以标准化方式提供资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多传输协议接入(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

Sentinel — MCP 流量透传与观测代理

基于 Model Context Protocol (MCP) 的观测型后端代理,作为 MCP 客户端与服务器之间的透明中间件,实现对 JSON-RPC 请求/响应的零拷贝透传,同时提供实时可视化、历史日志与可选的审计签名能力,帮助开发者在不干预执行的前提下对工具链进行观测和回放。

Oh My OpenCode MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行标准化通信,支持多种传输协议与会话管理以实现安全、可扩展的上下文服务。

TemPad Dev MCP 服务器

基于模型上下文协议(MCP)的后端服务实现,提供资源管理、工具执行与提示模板渲染等能力,并通过 JSON-RPC 与客户端通信。实现了服务器端的工具注册与执行、资源导出与资产管理、以及对 Prompts/模板的支持,支持多传输协议(如标准输入/输出、SSE、WebSocket 等),用于为大模型/LLM 客户端提供标准化的上下文服务与能力暴露。

Rogue-基于模型上下文协议的MCP服务器示例

基于模型上下文协议(Model Context Protocol,MCP)的后端示例,封装 Shirtify 代理并通过send_message工具向MCP客户端提供上下文对话能力与外部功能调用,支持 SSE/streamable_http 等传输模式的JSON-RPC风格交互。

Rosetta Ruchy MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供翻译、分析与能力声明等核心服务,通过标准化接口向多语言客户端提供资源访问、工具执行与 Prompt 模板相关能力,并以 JSON-RPC 风格的 API 与客户端交互,具备会话管理、能力声明、以及可扩展的传输与部署方式,适配代码翻译及形式化验证等后续扩展场景。

Trusted MCP 伺服端(AICC Trusted MCP)

基于 Model Context Protocol (MCP) 的可信服务端实现,提供资源、工具注册与执行、以及提示模板渲染等核心能力,支持端到端安全传输并可通过多种传输方式与客户端对话。该实现包含服务器逻辑、信任机制整合、以及面向 MCP 客户端的安全传输客户端接口。

Xiaozhi ESP32 MCP 服务器(Golang 实现)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,并支持多传输协议(如 WebSocket、MQTT/UDP 等)通过 JSON-RPC 与客户端通信,面向边缘设备和物联网场景的上下文服务解决方案。

OpenMemory MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。

Daisy Days MCP 服务端

基于 Model Context Protocol 的 MCP 后端服务器,实现资源与工具的管理,并通过 JSON-RPC 接口与 LLM 客户端进行交互,支持多工具与内容生成功能。

tmcp-MCP服务器实现

基于模型上下文协议(MCP)的 Rust 实现,提供服务器端与客户端的完整 MCP 功能,包括资源、工具、提示的托管与管理,以及通过 JSON-RPC 的请求/响应处理,支持多传输通道(stdio、TCP、HTTP SSE)与会话管理,面向在 AI 应用中提供上下文与功能的后端服务。

atlas-mcp

基于模型上下文协议(MCP)的服务器实现,向LLM客户端提供ATLAS Central Page的资源、工具与提示模板的统一访问接口,支持JSON-RPC风格请求/响应,以及多传输模式(如STDIO、HTTP)以服务化LLM上下文信息和能力查询。

Klondike MCP Server(Klondike Spec CLI)

基于模型上下文协议(MCP)的后端实现,向 MCP 客户端暴露 Klondike Spec 的资源、工具和提示模板等能力,并通过 JSON-RPC 形式处理请求与响应,支持多传输协议用于与大型语言模型的无缝对接。

Gobby MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器框架,提供资源与工具管理、提示模板,以及通过 JSON-RPC/HTTP/WebSocket 等协议与客户端交互的上下文服务能力。

MCP 服务器实现学习与示例

基于 Model Context Protocol (MCP) 的服务器端实现示例,展示如何通过 JSON-RPC 提供资源管理、工具执行与 Prompt 模板渲染等核心能力,并支持通过标准输入输出 (stdio) 的传输模式与客户端进行通信,适合作为学习和实验用途的 MCP 服务器实现。

claudemem MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 Claude Code 客户端以标准化方式提供资源管理、工具注册与执行、以及提示模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并提供本地/云模型的嵌入索引、检索与分析能力。该仓库实现了完整的 MCP 服务器端逻辑与相关工具集成,而不仅仅是客户端示例。

DevTeam6 MCP 服务器集

基于 Model Context Protocol (MCP) 的后端服务器实现集合,提供 Resources 的托管与管理、Tools 的注册与执行,以及可扩展的提示模板/交互能力,并通过标准化的 JSON-RPC 风格接口与 LLM 客户端进行通信,支持会话管理与多种传输场景。当前实现包括 MemoryMCPServer 与 RAGMCPServer 等服务器骨架,可作为 MCP 客户端对接的后端服务端。

AI-Infra-Guard MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)管理、工具(Tools)注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 与 LLM 客户端进行通信,支持多种传输通道(如 SSE、StdIO、WebSocket),为大语言模型应用提供标准化的上下文与能力服务。

Polar MCP 服务器桥接

基于模型上下文协议(MCP)的服务器实现组件,作为 Polar 电子应用的一部分,提供工具定义查询、工具执行与健康检查等核心接口,通过 HTTP 端点与客户端通信,并通过 Electron 渲染进程 IPC 与后台工具 definition/执行能力对接,从而向 LLM 客户端暴露资源、工具与提示渲染能力。

PraisonAI MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket)以为 LLM 客户端提供可扩展的上下文服务框架。

Aspose MCP Server

基于模型上下文协议(MCP)的后端服务器实现,向大型语言模型(LLM)客户端提供统一的资源/工具/提示模板等上下文服务,通过 JSON-RPC 进行通信,并支持多传输协议与会话管理,内置 Word/Excel/PPT/PDF 等办公文档处理能力的托管实现。

Tactus MCP 服务端实现

基于模型上下文协议(MCP)的服务器端实现,面向后端提供统一的资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染。通过 JSON-RPC 与客户端通信,支持会话管理、能力申明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)实现安全、可扩展的上下文服务,方便 LLM 客户端调取资源、执行工具与获取定制的 Prompt。该仓库明确包含 MCP 相关的服务端实现与集成能力。

MonicaHQ MCP Server

基于 Model Context Protocol 的 MCP 服务器,使用 Spring Boot 实现,提供 MonicaHQ CRM 数据的资源访问、工具调用及内容渲染,支持 STDIO 与 WebSocket/HTTP 等传输模式,面向大语言模型客户端(如 Claude Desktop)提供标准化的上下文服务。该服务器实现了资源管理、工具注册与执行,以及提示模板渲染等核心能力,以 JSON-RPC 2.0 进行通信。

365DaysOfData MCP 服务器(From Scratch)

基于模型上下文协议(MCP)的后端实现示例,包含可运行的 MCP 服务器代码、工具/资源注册以及简单的 Prompt 管理能力,能够通过标准化的 JSON-RPC 方式与客户端交互。

Brave Search MCP Server Suite

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的标准化管理与执行,并通过 JSON-RPC 与客户端进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket/HTTP)以实现对本地资源、外部能力和交互场景的可扩展上下文服务。

Myceliumail MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向 MCP 客户端提供标准化的资源访问、工具执行和 Prompt 模板渲染等能力,支持多传输协议和会话管理,适配 Claude Desktop 等 MCP 客户端的上下文服务需求。

Cursor Engineering Rules MCP 服务端

基于模型上下文协议(MCP)的服务器实现,提供对 Cursor 规则、工具调用和工作流指南的标准化上下文服务,便于与LLM客户端集成与扩展。

Toonify MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供将结构化数据转换为 TOON 格式以实现显著的令牌节省,并对接 Claude Code 插件与 MCP 客户端,暴露工具调用与资源访问能力,支持通过标准输入输出(stdio)进行通信与会话管理,同时内部集成本地统计指标。

Krolik MCP 服务器(Claude Code 集成)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管与管理、工具注册/执行,以及提示模板的定义与渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议的上下文服务框架。

mcp-server-starter

一个基于 Model Context Protocol 的最小可运行服务器实现,使用 stdio 传输,与客户端通过 JSON-RPC 进行交互,公开一个简单的 hello 工具,便于开发者快速上手 MCP 服务端开发。

YakShaver MCP Server (Desktop Electron 后端)

基于模型上下文协议(MCP)的后端实现,作为 YakShaver 桌面应用的服务端,负责托管与管理内部 MCP 服务器、注册与执行工具,以及定义与渲染提示模板,通过 JSON-RPC 进行与 LLM 客户端的标准化通信,提供安全、可扩展的上下文服务框架。

CC-Switch MCP 服务器实现

基于模型上下文协议(MCP)的服务器端实现,提供资源托管、工具注册/执行以及 Prompts 定义与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式并具备会话管理与跨应用的 MCP 服务器管理能力。

Sub Bridge MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,提供资源管理、工具注册与执行、以及 Prompts 定义与渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行通信,同时集成对 OpenAI/Claude API 的代理访问能力,面向 Cursor 等前端实现上下文服务。

Jenkins MCP Server Plugin

基于 Model Context Protocol (MCP) 的 Jenkins 服务端实现,提供对外暴露的工具、资源与提示等上下文能力,支持通过 JSON-RPC 进行通信,包含 SSE、流式等传输端点以及对 Jenkins 实例的会话与能力声明管理。

BrowserWing MCP 服务器

基于模型上下文协议(MCP)的后端服务器,提供 MCP 指令注册与执行、资源与工具的管理,以及提示模板的渲染,供大模型客户端通过 JSON-RPC 调用,并可通过多传输协议进行通信。

Chronicle MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的注册与渲染,通过 JSON-RPC 与 AI 客户端进行交互,支持以标准输入输出(StdIO)传输的通信方式,为 LLM 应用提供可扩展的上下文服务框架。

CloudBase MCP Mini Manus 服务器

基于 Model Context Protocol 的 MCP 服务器端实现,提供资源、工具与示例性提示模板等能力,支持通过 JSON-RPC 与客户端通信,且实现了通过不同传输协议(如 SSE/HTTP)进行交互的服务器端逻辑。

Code Guardian MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议接入。

arifOS MCP Server

基于 Model Context Protocol (MCP) 的后端治理与资源/工具/提示模板管理服务器,面向 LLM 客户端提供标准化的上下文数据、可注册/执行的工具集以及可渲染的 Prompt 模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并具备扩展传输协议(如 STDIO、SSE、WebSocket)的能力,为 LLM 应用提供安全、可审计的上下文服务框架。

MCP 工具服务器示例

基于Model Context Protocol,提供BMI计算和天气查询工具的服务器示例。

jailbreak-mcp

一个MCP服务器代理,用于管理和过滤多个后端MCP服务器的能力,优化LLM客户端的上下文使用。

Project Horizon 股票价格 MCP 服务器

为AI代理提供标准化的股票价格查询工具服务,基于模型上下文协议(MCP)实现。

MCP时间工具服务器 (Snowgoose内嵌示例)

Snowgoose仓库内包含的一个基于Model Context Protocol (MCP) 的简单时间工具服务器实现。

MCP Server (Spring AI based)

基于Spring AI框架构建的MCP服务器,提供资源、工具和Prompt模板管理,并通过SSE实现与LLM客户端的通信。

Groq Compound MCP Server

为 Groq 模型提供基于模型上下文协议 (MCP) 的服务器,支持实时信息问答和代码执行工具。

ContextBase Server

ContextBase Server 是一个专为AI应用设计的模型上下文协议(MCP)服务器,用于安全地存储、管理和检索用户上下文信息,支持构建个性化和持久化的AI交互体验。

MCP Lite

MCP Lite 是一个基于 Ruby 开发的轻量级模型上下文协议(MCP)服务器实现,旨在为 LLM 应用提供高效、可扩展的上下文服务框架。

AgentMCP:多智能体协作平台

AgentMCP是一个开源平台,实现了模型上下文协议(MCP),旨在促进不同AI框架下智能体之间的无缝协作和通信。

Proxy Base Agent (PBA)

Proxy Base Agent是一个基于Proxy Structuring Engine (PSE)构建的状态化Agent框架,通过MCP协议支持动态扩展工具能力,保证Agent工具调用的可靠性。

Go-MCP:模型上下文协议Go语言实现

Go-MCP 是一个 Go 语言 SDK,用于构建和交互 Model Context Protocol (MCP) 应用,支持服务端和客户端实现。

MCP REST Server Transport

基于 RESTful API 的 MCP 服务器传输层实现,支持通过 HTTP 协议接收和发送 MCP 消息。

Sentry MCP服务器

Sentry MCP服务器是一个原型项目,旨在为LLM应用提供访问Sentry错误监控数据的工具,作为模型上下文协议(MCP)的远程服务端。

go-modelcontextprotocol库

go-modelcontextprotocol是一个Go语言库,用于构建符合模型上下文协议(MCP)的服务端应用,提供资源管理、工具注册和Prompt模板定义等核心功能。

Figma Context MCP Server

Figma Context MCP Server是一个基于模型上下文协议(MCP)的服务器,旨在将Figma设计数据以结构化的方式提供给AI编码工具,从而提升AI代码生成的准确性和设计一致性。

Pebble

Pebble是一个通用通信协议库,旨在为AI Agent提供标准化的上下文服务,支持模型上下文协议(MCP),并实现跨框架的Agent交互。

MCP Lambda Server Layer

为AWS Lambda函数提供MCP服务器基础设施,支持SSE协议,简化LLM应用在AWS环境中的上下文服务构建。

GIMP AI助手 (GIMP-MCP)

通过模型上下文协议(MCP)连接AI模型与GIMP,实现图像编辑的智能化扩展。

EventCatalog MCP Server

为 EventCatalog 提供 MCP 接口,支持 Claude、Cursor 等 MCP 客户端访问 EventCatalog 的架构文档和信息。

MCPR

Rust实现的模型上下文协议(MCP)库,提供构建MCP服务器和客户端的工具和库。

AgentIQ

AgentIQ是一个灵活的库,旨在将企业级智能体与各种数据源和工具无缝集成,并兼容模型上下文协议(MCP),作为一个有效的MCP服务器实现。

Image Generation Server

Image Generation MCP Server是一个基于Model Context Protocol的后端应用,允许LLM客户端通过调用工具生成图像,并支持配置图像参数和保存路径。