← 返回首页

"JSON-RPC"标签的搜索结果

找到 332 个结果

Officetracker MCP 服务端

基于 Model Context Protocol(MCP)的后端实现,提供资源、工具和提示模板的上下文服务,供 LLP/LLM 客户端通过 JSON-RPC 方式访问办公室出勤数据,并在 HTTP 端点 /mcp/v1/ 提供 MCP 服务能力与工具执行能力。

Strands Agent SOP MCP 服务器

一个基于 Model Context Protocol (MCP) 的后端服务,加载内置与外部 SOP,将它们作为可调用的提示注册,通过 FastMCP 提供 JSON-RPC 服务供 MCP 客户端访问,用于向大型语言模型提供结构化上下文和功能性提示。

LogicApps MCP Server

基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Azure Logic Apps 的资源、工具与工作流定义的标准化访问,使用 JSON-RPC 进行请求/响应,并通过标准的 Stdio 传输实现本地集成与扩展能力。

MCP Gitea 服务端

基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Gitea 实例的资源、工具与提示模板等上下文能力,支持资源访问、工具调用与提示渲染。

STRIDE GPT MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供 STRIDE 威胁建模框架、工具调用与报告生成功能,支持通过 JSON-RPC 与 LLM 客户端进行上下文管理与协作。

MCP 控制端服务器实现(基于 FastMCP 的 OpenAPI 映射)

基于 Model Context Protocol (MCP) 的服务器实现,使用 OpenAPI/FastMCP 将 mcpproxy 的控制接口暴露为 MCP 工具,支持工具注册、路由过滤、以及与 MCP 客户端的 JSON-RPC 通信,便于对 MCPProxy 的安全、可扩展后端服务提供上下文和控制能力。

mssql-mcp-server

基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化方式向 LLM 客户端提供 MSSQL 数据库的资源、工具和提示等上下文服务,支持多语言实现(Node 与 .NET 版本)以及基于 JSON-RPC 的交互。

Memory System MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,采用知识图谱作为资源中心,提供工具调用、资源管理与结构化输出,支持 Neo4j 主存储与本地文件回退,并通过 JSON-RPC 的标准 MCP 规范与客户端进行交互,涵盖日志通知、错误码体系以及多传输通道的运行能力。

LLxprt-MCP Server(简化实现,面向集成测试)

基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端提供上下文信息、工具调用通道与 Prompts 渲染等功能;核心通过 JSON-RPC 与客户端通信,示例实现包含最小化的服务器以支持集成测试场景。

Koder MCP后端服务器实现

基于 Model Context Protocol (MCP) 的后端服务,集成资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式(stdio、SSE、HTTP)以提供可扩展的上下文服务框架。

Agents Council MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,支持多代理协同的会话管理、工具执行和提示渲染,面向 LLM 客户端提供标准化的上下文服务。

Agentic QE MCP Server

基于 Model Context Protocol 的后端服务,作为 MCP 服务器向 LLM 客户端以标准化方式提供资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多传输协议接入(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

Sentinel — MCP 流量透传与观测代理

基于 Model Context Protocol (MCP) 的观测型后端代理,作为 MCP 客户端与服务器之间的透明中间件,实现对 JSON-RPC 请求/响应的零拷贝透传,同时提供实时可视化、历史日志与可选的审计签名能力,帮助开发者在不干预执行的前提下对工具链进行观测和回放。

Oh My OpenCode MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行标准化通信,支持多种传输协议与会话管理以实现安全、可扩展的上下文服务。

Overseerr MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 Overseerr 集成的上下文信息、工具和提示模板,通过 JSON-RPC 进行通信,并支持 STDIO、SSE/HTTP 等传输通道,便于在 AI 应用中进行资源检索、请求管理与媒体详情查询等功能的上下文服务。

ToolPlex MCP Server

基于 Model Context Protocol 的后端服务器实现,提供资源托管、工具注册与执行、提示模板管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议、会话管理与权限策略,以为大模型客户端提供安全、可扩展的上下文服务。

Agent Assistant MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供工具注册、资源管理和提示模板渲染等核心能力,通过 JSON-RPC/Connect 框架与 MCP 客户端进行标准化通信,支持多个传输和会话能力,服务端还与前端 Web 界面和后端资源/工具链进行协作。

Claude Code Telegram MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源访问、以及与 LLM 的对话上下文渲染等核心能力。通过 JSON-RPC 与客户端通信,采用 STDIO 传输实现本地进程间通信,适用于 Claude Code 的 Telegram 插件后端场景。该实现涵盖工具调用、批量通知、审批流、AFK/监听等功能模块,具备完整的服务端能力与测试用例。

SynthFlow MCP 服务器

基于 Model Context Protocol (MCP) 的本地服务器实现,提供以 JSON-RPC 方式与客户端通信的能力,暴露工具调用入口并可扩展资源与提示等能力

MyVibe SDLC MCP 服务器组

基于 Model Context Protocol (MCP) 的后端服务器集合,面向软件开发生命周期(SDLC)的资源/工具管理、AI 审核与挑战、状态与流程管控等功能,提供标准化的 JSON-RPC 风格接口并支持多种传输方式(如 标准输入/输出、WebSocket、SSE 等)以供 LLM 客户端调用与协作。

Echo Noise MCP 服务端实现

基于模型上下文协议(MCP)的后端实现,提供资源、工具与 Prompt 的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket)以及会话与能力声明,并可通过 MCP 客户端接入扩展能力。该仓库在后端 Go 语言实现了核心服务,并在 README 提供了配套的 MCP 客户端服务(MCP 服务器端 bundles/示例及接入文档)。

Agent Deck MCP 服务器代理与池

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 MCP 服务器进程的托管、注册、JSON-RPC 桥接和多会话管理,供 LLM 客户端通过 MCP 获得资源数据、调用工具与渲染 Prompt 模板等上下文服务。

Rosetta Ruchy MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供翻译、分析与能力声明等核心服务,通过标准化接口向多语言客户端提供资源访问、工具执行与 Prompt 模板相关能力,并以 JSON-RPC 风格的 API 与客户端交互,具备会话管理、能力声明、以及可扩展的传输与部署方式,适配代码翻译及形式化验证等后续扩展场景。

Hanzo Model Context Protocol 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 客户端通信,支持多种传输通道,面向让大语言模型客户端高效获取上下文、能力和工具的后端服务。

Xiaozhi ESP32 MCP 服务器(Golang 实现)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,并支持多传输协议(如 WebSocket、MQTT/UDP 等)通过 JSON-RPC 与客户端通信,面向边缘设备和物联网场景的上下文服务解决方案。

MCPU - MCP 服务器框架

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,支持 stdio、HTTP、SSE 等传输,并通过 JSON-RPC 与客户端进行消息交互,具备会话管理、能力声明及多传输协议支持等能力。

NiceVibes MCP 服务器

基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。

UDS-POS MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供标准化的资源(Resources)、工具(Tools)以及提示模板(Prompts),通过 JSON-RPC 与 LLM 客户端通信,支持多传输通道并对接 Supabase 数据源,构建面向 AI 赋能的上下文服务框架。该仓库包含一个完整的 MCP 服务器实现(含工具定义、资源暴露、提示模板以及 Prompt 执行逻辑),并以 Stdio 传输方式提供服务入口。

OpenMemory MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。

Silo 本地 MCP 服务器

基于 Rust 的本地 Model Context Protocol (MCP) 服务器,提供握手初始化、工具注册与调用,以及本地文件系统相关辅助功能,面向 LLM 客户端通过标准 JSON-RPC 在本地环境获取上下文信息与可执行工具

SeerLord MCP 服务端整合

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具、提示模板的标准化管理与渲染,支持 JSON-RPC 通信、会话管理及多传输协议,内置插件生态并实现了对外部工具与推理能力的统一接入与协作。

Supertag MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供资源、工具和 Prompt 的标准化上下文服务,并通过 JSON-RPC 进行通信;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力,适用于将 Tana 数据和功能暴露给 AI 模型进行推理、调用和渲染。

Meow Notifier MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 MCP 服务器提供多昵称通知、工具执行和提示模板渲染,并通过 JSON-RPC 与 MCP 客户端通信。

tmcp-MCP服务器实现

基于模型上下文协议(MCP)的 Rust 实现,提供服务器端与客户端的完整 MCP 功能,包括资源、工具、提示的托管与管理,以及通过 JSON-RPC 的请求/响应处理,支持多传输通道(stdio、TCP、HTTP SSE)与会话管理,面向在 AI 应用中提供上下文与功能的后端服务。

ToolWeaver MCP Server

一款基于 Model Context Protocol(MCP)的后端服务器框架,向大语言模型客户端以标准化方式提供资源管理、工具注册/执行以及提示模板渲染等功能,支持 JSON-RPC 通信、会话管理、能力声明,并可通过多传输协议(如 Stdio、SSE、WebSocket)进行扩展与部署。

Klondike MCP Server(Klondike Spec CLI)

基于模型上下文协议(MCP)的后端实现,向 MCP 客户端暴露 Klondike Spec 的资源、工具和提示模板等能力,并通过 JSON-RPC 形式处理请求与响应,支持多传输协议用于与大型语言模型的无缝对接。

CodingBuddy MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具、Prompt 的托管、读取和渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议以提供安全、可扩展的上下文服务。

Docmost MCP Bridge 与 MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现与桥接组件,允许 LM 模型/代理通过标准 JSON-RPC 方式读取资源、调用工具、获取与渲染 Prompt 模板等,核心包含一个可运行的 MCP 服务端以及将 Cursor 等客户端接入 Docmost 的桥接层。

Arivu MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。

Ada MCP 服务器实现

基于 Model Context Protocol(MCP) 的后端服务,作为本地大模型应用的上下文提供者。该服务器托管与管理 Resources(数据资源)、Tools(可注册并供 LLM 调用的外部功能)以及 Prompts(Prompt 模板渲染),通过 JSON-RPC 与客户端通信,完成会话管理、能力声明以及跨传输协议(如 Stdio、SSE、WebSocket)的上下文服务,方便编辑器、IDE 以及本地模型进行组合式推理与扩展。仓库中明确包含 MCP 集成组件、启动脚本及相关文档,具备对 MCP 客户端的完整支持能力。

MCP 系统监控服务器(Rust 实现)

基于 MCP 的系统监控后端,提供系统信息、资源数据、工具调用等能力,通过 JSON-RPC 与客户端通信,并支持 HTTP REST API 与 STDIO 两种传输方式,方便 AI 客户端与集成工具(如 OpenCode 等)进行远程监控与上下文服务。

Sahai MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,实现资源、工具与提示模板的标准化上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与 SSE 实时推送。

Claude Skills MCP Server Pack

基于 Model Context Protocol 的 MCP 服务器实现集合,核心职责是以标准化的 JSON-RPC 方式向 LLM 客户端提供上下文信息和能力:托管与管理 Resources、注册与执行 Tools,并定义/渲染 Prompt 模板,同时支持会话管理与多传输协议,面向 Claude Code 等 LLM 应用的上下文服务后端。该仓库包含可运行的服务模板和示例服务器实现,旨在帮助开发者快速搭建符合 MCP 的后端服务。

ModelCypher MCP 服务器

ModelCypher MCP 服务器是一个基于 Model Context Protocol 的后端服务,提供资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明及多传输协议。

FHL Bible MCP Server

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供圣经经文、原文字词、注释及文章等资源的标准化访问与上下文服务,通过 JSON-RPC 进行通信,支持多传输模式、会话管理与能力声明。

OSINT MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,通过 JSON-RPC 提供资源、工具与提示模板给 LLM 客户端,并以标准化的方式与 OSINT 平台 API 对接,支持通过 Stdio 传输进行通信与会话管理。

ScrepDB MCP Server

基于 Model Context Protocol(MCP)的 StarCraft 回放数据查询服务端,实现了可通过 MCP 客户端以 JSON-RPC 形式查询、获取数据库模式和 StarCraft 知识的后端,支持 SQLite/PostgreSQL 存储和 stdio 传输模式。

OpenSaas Stack MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具执行与提示模板的注册与渲染能力,并通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明以及多传输协议接入,旨在为 LLM 客户端提供安全、可扩展的上下文服务。

CLIAIMONITOR MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,承担资源、工具、 Prompt 模板等的托管与管理,并通过 JSON-RPC 与 LLM 客户端进行通信,提供会话管理、能力声明、以及多传输协议支持(HTTP、SSE、WebSocket)的上下文服务框架,供前端仪表盘、Captain 编排与代理执行组件协同工作。

Commons Systems MCP 服务器(GitHub Workflows MCP Server)

基于 Model Context Protocol 的后端服务,通过 JSON-RPC 方式向 LLM 客户端提供监控、部署与故障分析相关的工具接口,支持通过标准化请求-响应模式执行工具、查询部署信息等,服务器端实现了工具注册、请求处理与错误封装,通信以 STDIO 为载体。

Code Puppy MCP Server

基于模型上下文协议(MCP)的后端服务器,实现资源托管、工具注册/执行以及提示模板渲染,并通过 JSON-RPC 与客户端通信,提供会话管理、能力声明以及对多传输协议的支持,旨在为LLM客户端提供标准化的上下文和外部功能访问服务。

Von MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,用标准化的 JSON-RPC 形式向 LLM 客户端暴露资源、注册和执行 Tools,以及 Prompt 模板的渲染与管理,核心包含会话管理、能力声明与对多传输协议的支持,旨在为 LLM 应用提供可扩展、可验证的上下文服务。

AimDB MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现对 Resources、Tools 与 Prompts 的托管、注册与渲染,并通过 JSON-RPC 2.0 与 LLM 客户端进行通信,支持资源读取/订阅、工具调用、提示获取,以及远程订阅通知等功能。该实现包含完整的服务器端约束、路由、订阅管理与通知输出,具备可运行的 MCP 服务端能力。

XPR MCP Server

基于 Model Context Protocol 的 MCP 服务器,实现对 XPR(Proton 区块链)的工具查询、数据访问与外部部署能力,通过 JSON-RPC 与 MCP 客户端通信,并提供 Azure Functions 部署支持。

Agents Council MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具和提示模板的管理与执行,并通过 JSON-RPC 与客户端进行通信,支持本地化持久化与多代理会话协作。该仓库包含完整的服务端实现代码,而非仅为示例。

Gobby MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器框架,提供资源与工具管理、提示模板,以及通过 JSON-RPC/HTTP/WebSocket 等协议与客户端交互的上下文服务能力。

AdvancedDiscordMCP 服务器

基于 Model Context Protocol (MCP) 的 Discord 集成后端,提供标准化的资源、工具、提示模板管理,并通过 JSON-RPC 与客户端进行通信,实现对 Discord 服务的自动化上下文支持。

IronBase MCP 服务器

基于 Model Context Protocol 构建的后端服务实现,作为 MCP(Model Context Protocol)服务器向大型语言模型客户端提供结构化的资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染能力;通过 JSON-RPC 进行通信,并支持 HTTP/STDIO 等传输模式与会话管理、能力声明与访问控制等安全特性。

WordPressMCP Server

一个基于 Node.js 的最小 MCP 服务器实现,公开 WordPress REST API 工具给 MCP 客户端,并通过标准输入输出(stdio)与客户端通信,支持 WordPress 的文章、页面、分类、标签、用户、插件及自定义 CPT 的路由等功能。

Yanger 模型上下文服务端

基于模型上下文协议的后端实现,提供资源管理、外部工具注册与执行以及对外暴露的工具集合,支持通过标准化的 JSON-RPC 方式与客户端进行对话式上下文交互。

OpenMarkets MCP 服务器

基于 Model Context Protocol 的后端服务器,向大型语言模型客户端提供资源、工具和提示模板等上下文与功能,并通过 JSON-RPC 进行通信与协作。

EDAMAME Posture MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与提示模板等上下文功能的注册、执行与渲染,并通过 JSON-RPC 与外部 AI 客户端进行通信,支持本地与网络模式以及对管线的自动化控制。

MCP 服务器实现学习与示例

基于 Model Context Protocol (MCP) 的服务器端实现示例,展示如何通过 JSON-RPC 提供资源管理、工具执行与 Prompt 模板渲染等核心能力,并支持通过标准输入输出 (stdio) 的传输模式与客户端进行通信,适合作为学习和实验用途的 MCP 服务器实现。

Hydrolyze MCP Server

基于 Model Context Protocol 的后端 MCP 服务器实现,作为后端上下文服务提供商,向 LLM 客户端以标准化的 JSON-RPC 调用提供资源、工具与提示模板等能力,并通过 MCP 协议进行请求处理与响应返回。该仓库内实现了服务器端工具注册、请求分发以及对 Supabase 等后端的数据访问逻辑,可用于对接外部大模型应用场景。

EllyMUD MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,集成在 EllyMUD 游戏后端,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,便于与大型语言模型或外部 AI 客户端通过 JSON-RPC 进行上下文与功能交互。

DAT MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供面向大语言模型客户端的上下文服务能力,包含工具(Tools)、资源(Resources)和提示模板(Prompts)的注册、管理与执行,支持通过 Spring Boot 部署并对接支持 MCP 的 Agent 客户端。

Apply Task MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持 TUI/GUI 与 AI 助手的集成使用。

esa 的 MCP 服务器

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染,采用 STDIO 传输用于与 MCP 客户端进行 JSON-RPC 风格的通信,支持多模态上下文的读取、操作和交互。

TPM-MCP 本地服务器

基于 Model Context Protocol 的本地 MCP 服务器实现,提供资源、工具和提示渲染等能力,供本地 LLM 客户端通过 JSON-RPC 方式访问并管理项目数据(包含会话、能力声明、以及多传输协议支持)。

Singular Blockly Model Context Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供可管理的资源、可注册的工具和可渲染的 Prompt 模板,通过 JSON-RPC 进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明等功能。

ai-infra MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式提供资源管理、工具注册/执行以及 Prompt 模板渲染等上下文服务,支持会话管理、能力声明与多传输协议(如 stdio、SSE、WebSocket),旨在为 LLM 应用提供可扩展、安全的上下文服务能力。

DevTeam6 MCP 服务器集

基于 Model Context Protocol (MCP) 的后端服务器实现集合,提供 Resources 的托管与管理、Tools 的注册与执行,以及可扩展的提示模板/交互能力,并通过标准化的 JSON-RPC 风格接口与 LLM 客户端进行通信,支持会话管理与多种传输场景。当前实现包括 MemoryMCPServer 与 RAGMCPServer 等服务器骨架,可作为 MCP 客户端对接的后端服务端。

Dec MCP Server 实现

一个基于 MCP 的后端服务器实现,提供 JSON-RPC 2.0 的初始化、工具列表与工具执行等核心接口,并通过标准输入输出与客户端通信,支持在本地运行、生成并管理 MCP 配置与规则输出。

Crackerjack MCP 服务器

基于 Crackerjack 的 MCP(Model Context Protocol)服务器实现,提供资源托管与管理、工具注册与执行、以及可渲染的 Prompt 模板等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 WebSocket、StdIO、SSE),为 LLM 客户端提供安全、可扩展的上下文服务框架。

AI-Infra-Guard MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)管理、工具(Tools)注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 与 LLM 客户端进行通信,支持多种传输通道(如 SSE、StdIO、WebSocket),为大语言模型应用提供标准化的上下文与能力服务。

Polar MCP 服务器桥接

基于模型上下文协议(MCP)的服务器实现组件,作为 Polar 电子应用的一部分,提供工具定义查询、工具执行与健康检查等核心接口,通过 HTTP 端点与客户端通信,并通过 Electron 渲染进程 IPC 与后台工具 definition/执行能力对接,从而向 LLM 客户端暴露资源、工具与提示渲染能力。

MCP-CLI-Go 本地 MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的管理与执行,支持通过 JSON-RPC 与 MCP 客户端通信,并具备标准化的服务器端会话管理和多传输模式能力(如 StdIO)。

Context Finder MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等能力,并通过 MCP JSON-RPC 与客户端通信。该仓库实现了完整的 MCP 服务端逻辑、工具集合和向量存储等组件,支持通过多种传输方式(如 stdio、HTTP、gRPC 等)向 LLM 客户端提供结构化的上下文服务和功能。

GitHub MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供对 GitHub 的上下文资源、工具执行与提示模板的标准化访问,支持 JSON-RPC 交互,适配多种传输方式并具备会话管理、能力声明与远程工具发现等能力,用于为大语言模型提供可扩展的上下文服务。

PraisonAI MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket)以为 LLM 客户端提供可扩展的上下文服务框架。

AutoHotkey v2 MCP 服务器

基于 Model Context Protocol 的 AutoHotkey v2 MCP 服务器,提供资源、工具、提示词(Prompts)的管理与上下文注入,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE),实现会话管理和能力声明以服务化地提供上下文服务。

Aspose MCP Server

基于模型上下文协议(MCP)的后端服务器实现,向大型语言模型(LLM)客户端提供统一的资源/工具/提示模板等上下文服务,通过 JSON-RPC 进行通信,并支持多传输协议与会话管理,内置 Word/Excel/PPT/PDF 等办公文档处理能力的托管实现。

Tactus MCP 服务端实现

基于模型上下文协议(MCP)的服务器端实现,面向后端提供统一的资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染。通过 JSON-RPC 与客户端通信,支持会话管理、能力申明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)实现安全、可扩展的上下文服务,方便 LLM 客户端调取资源、执行工具与获取定制的 Prompt。该仓库明确包含 MCP 相关的服务端实现与集成能力。

Shannot MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供资源、工具与提示等上下文能力,并通过 JSON-RPC 在标准输入输出传输通道进行通信,支持本地及远程执行场景的脚本运行、会话管理与审计日志记录。

Savant Model Context Protocol 服务器

基于 Model Context Protocol 构建的后端服务,为对话型客户端提供标准化的资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,支持多引擎协同、JSON-RPC 通信以及多种传输协议的 MCP 场景实现。

ESP-MCP over MQTT – ESP32 的 MCP 服务器实现

基于 MCP(Model Context Protocol)在 ESP32/ESP-IDF 上实现的 MQTT 传输 MCP 服务器,提供资源管理、工具注册与调用、以及 Prompt/模板支持,利用 JSON-RPC 与客户端通信,适用于边缘设备上的上下文与能力服务。

Cognia MCP 服务端实现

基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。

ABCoder MCP 服务端

基于 Model Context Protocol(MCP)的服务器实现,作为后端上下文服务提供者,负责托管并管理 资源(如 UniAST/AST 数据、仓库结构等)、注册与执行工具,以及定义和渲染 Prompt 模板,供大语言模型(LLM)客户端通过 JSON-RPC 进行资源访问、工具调用与提示渲染等交互。实现了 MCP 服务端核心能力,支持 STDIO/HTTP 等传输模式的通信。

Flask-MCP-Plus

基于 Flask 的 MCP 服务器实现,提供工具、资源、提示等接口,支持 JSON-RPC 风格的请求/响应以及流式传输,便于向大模型客户端提供上下文信息和外部功能接入。

MCP Over MQTT 服务器实现(paho-mcp-over-mqtt)

基于 MQTT 5.0 的 MCP 服务器实现,使用 paho-mqtt-c 库,提供资源管理、工具注册与调用、以及基于 JSON-RPC 的 MCP 请求/响应处理,支持服务器上线、会话管理和多客户端交互。

365DaysOfData MCP 服务器(From Scratch)

基于模型上下文协议(MCP)的后端实现示例,包含可运行的 MCP 服务器代码、工具/资源注册以及简单的 Prompt 管理能力,能够通过标准化的 JSON-RPC 方式与客户端交互。

图表生成MCP服务器

基于 Model Context Protocol (MCP) 的后端服务,提供15种图表生成功能、AI智能配色与输出能力,并通过 MCP 协议供 LLM 客户端读取资源、调用工具和获取图表输出。

Agent Trust Protocol MCP 服务器 - 量子安全版

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册/执行、提示模板等核心能力,支持 JSON-RPC 通过 WebSocket/HTTP 与客户端通信,内置量子安全加密(Ed25519 与 Dilithium 的混合模式)、W3C DID 身份、审计日志和会话管理,满足企业级的可扩展上下文服务需求。

Digest MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,为 AI 客户端(如大型语言模型)提供标准化的上下文服务:托管资源、注册并执行工具、定义与渲染提示模板,支持通过 JSON-RPC 进行通信。

GPT4Free MCP 服务器

基于 Model Context Protocol (MCP) 的多模型上下文服务后端,向 LLM 客户端提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持会话管理并兼容多种传输协议(STDIO/SSE/WebSocket),为 AI 应用提供可扩展、安全的上下文服务框架。

MCP 服务端多传输实现与工具协作

基于 Model Context Protocol 的 MCP 风格服务器实现,提供对资源、工具和提示模板的标准化管理,内置 STDIO 与 SSE/HTTP 传输方式的服务器端实现,并可与 Agent2Agent 等组件协同工作,支持异步请求处理、流式响应和任务驱动的上下文服务。

AdCP Sales Agent MCP Server

基于模型上下文协议(Model Context Protocol, MCP)的后端服务器,向大型语言模型(LLM)客户端以标准化方式提供资源数据、工具执行能力和可渲染的提示模板,支持多租户、会话管理以及通过 JSON-RPC 与客户端通信的上下文服务框架,适用于广告投放场景的自动化协作与执行。

Context8 MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大型语言模型(LLM)客户端暴露私有代码资源、可执行工具和可渲染的 Prompt 模板等上下文服务,并通过 JSON-RPC 方式进行通信,支持 STDIO 和 HTTP 两种传输通道。

WeKnora MCP 服务端

基于 WeKnora 的 MCP(Model Context Protocol)服务器实现,向大模型客户端提供标准化的资源、工具与提示模板的上下文服务,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,用于实现安全、可扩展的上下文环境。该服务器通过 JSON-RPC 与客户端进行通信,承载资源访问、工具注册/执行与提示渲染等核心能力。典型场景包括对接外部知识库、执行工具调用、以及渲染与提供定制化的 Prompt 模板。

Midnight MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、Prompts 的注册、管理与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,面向 LLM 的上下文服务与功能扩展。

poly-queue-mcp

基于 Model Context Protocol 的后端服务器,统一暴露多种消息队列适配器作为工具,向 LLM 客户端提供资源、工具执行与 Prompts 渲染的上下文服务。

poly-secret-mcp

基于 Model Context Protocol(MCP)的后端服务器,聚合 Vault、SOPS 等密钥/机密管理工具的工具接口,向大语言模型(LLM)客户端提供以 JSON-RPC 形式调用的密钥读取、写入等操作的统一入口,并支持通过标准化传输(如 STDIO)进行交互。

poly-container-mcp

基于 Model Context Protocol 的多运行时容器管理 MCP 服务器,提供对 nerdctl/podman/docker 的统一 MCP 接口,支持 STDIO 与 Streamable HTTP 传输,供大模型客户端以标准化方式获取资源、调用工具与渲染提示等上下文信息。

Polyglot SSG MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器,聚合多语言静态站点生成器(SSG)的工具集,并通过 MCP JSON-RPC 暴露给大模型客户端使用,支持 STDIO 与流式HTTP传输模式。

VectCutAPI MCP 服务端

基于 Model Context Protocol (MCP) 的 CapCut 风格后端服务器,通过 JSON-RPC 与 MCP 客户端通信,提供资源、工具、草稿管理等核心能力,支持把视频/音频/图片等素材以标准化方式暴露给大语言模型等客户端使用。

Claude Code Workflow MCP 服务器

基于 Claude Code Workflow 的 MCP 服务器实现,使用 JSON-RPC 与客户端通信,核心职责是托管资源、注册工具、定义并渲染 Prompt 模板,为 LLM 客户端提供可扩展的上下文服务。

MCP Guard 安全网关

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板定义与渲染等核心能力,并通过 JSON-RPC 与客户端通信;内置认证、授权、速率限制、观测与审计等安全特性,支持多传输协议(Stdio、HTTP、SSE)以及多服务器路由场景,能为 LLM 客户端提供安全、可扩展的上下文服务框架。

Fantaco MCP 服务器实现(客户与财务)

基于模型上下文协议(MCP)的后端服务器实现,提供面向客户与财务的工具服务,通过 FastMCP HTTP 传输向 LLM 客户端暴露可调用的工具,支持资源访问与任务执行,便于在对话式应用中以标准化方式获取上下文信息和外部功能。

Concierge MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册/执行、Prompt 模板渲染,并通过 MCP/JSON-RPC 进行客户端交互,支持会话管理与跨协议传输,面向 LLM 客户端提供可扩展的上下文服务框架。

Fastly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并可在 stdio、HTTP(含 SSE)等传输模式下运行,具备会话管理、能力声明和安全保护机制。

Autobyteus MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染,支持通过 JSON-RPC 与客户端通信,并具备会话管理与多传输协议(如 Stdio、SSE、WebSocket)扩展能力,为大语言模型(LLM)应用提供安全、可扩展的上下文服务框架。

Opencode MCP 语义上下文服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于向 LLM 客户端提供持久化记忆、工具执行和 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持内存资源管理、工具注册/执行、Prompt 渲染,以及会话管理,具备本地向量检索、离线嵌入和多种传输能力的服务端实现。

Claude Sessions MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现 Claude Code 会话的资源管理、工具执行与提示渲染,提供统一的上下文服务给 LLM 客户端,采用 JSON-RPC 进行交互,支持多传输方式并完成会话、资源、工具等能力的托管与管理。

Sunpeak MCP 服务器端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具调用以及资源渲染的服务端能力,并通过 JSON-RPC/ SSE 方式与客户端通信,支持多会话与会话管理,适用于在后端向 LLM 客户端提供可扩展的上下文服务。

Chrome DevTools MCP 服务端实现

基于 Model Context Protocol (MCP) 的服务端实现,用于向基于 MCP 的中文/英文客户端提供标准化的上下文信息与功能。核心职责包括托管与管理 Tools、Resources、Prompts,支持通过 JSON-RPC 与客户端通信,提供会话管理、能力声明以及多传输协议的支持,适合在浏览器环境或本地服务中搭建对 LLM 的上下文服务框架。

Synapse MCP 服务器

基于 Model Context Protocol 的后端服务器,提供任务资源、工具调用和提示模板等上下文服务,通过 JSON-RPC 2.0 与 AI 客户端(如 Claude Code)进行交互,实现多代理协作的上下文管理与执行能力。

ElizaOS Knowledge MCP 服务器

基于 Model Context Protocol 的后端服务,提供资源、工具与提示模板的标准化上下文服务,通过 JSON-RPC 与 LLM 客户端进行交互,当前实现以 STDIO 传输为主要通讯方式,能够托管本地知识库中的日常简报、事实、理事会简报等资源,并暴露查询与渲染工具以支持多样化的 LLM 交互场景。

HealthSim MCP Server

基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。

Krolik MCP 服务器(Claude Code 集成)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管与管理、工具注册/执行,以及提示模板的定义与渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议的上下文服务框架。

mcp-server-starter

一个基于 Model Context Protocol 的最小可运行服务器实现,使用 stdio 传输,与客户端通过 JSON-RPC 进行交互,公开一个简单的 hello 工具,便于开发者快速上手 MCP 服务端开发。

模板化 MCP 服务器集合

一个面向大型语言模型的 MCP 服务器模板仓库,提供多达17种独立的 MCP 服务器及底层核心组件,支持资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端进行通信,适合本地自托管和容器化部署。

VidCap YouTube API MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,作为 VidCap YouTube API 的上下文服务提供方,管理资源与工具,支持 JSON-RPC 的请求/响应,并通过 STDIO、流式 HTTP/WebSocket 等传输方式与 MCP 客户端进行交互,便于 AI 助手在对话中获取视频数据、执行外部功能和渲染提示模板。

Secret MCP

基于 Model Context Protocol (MCP) 的本地秘密管理与上下文服务服务器,提供秘密资源的托管、工具注册与执行,以及可渲染的 Prompt 模板,供本地的 AI 编码助手安全地获取上下文与功能。所有敏感密钥仅存于本地,AI 客户端通过 JSON-RPC 与服务器交互读取资源、调用工具并渲染 Prompts。

cl-mcp — Common Lisp MCP 服务器实现

基于 Common Lisp 的 MCP(Model Context Protocol)服务器实现,提供资源管理、工具注册与执行、提示模板渲染等核心能力,并通过 JSON-RPC 进行请求/响应。支持多种传输协议(stdio、TCP、HTTP),为大语言模型(LLM)客户端提供可扩展、可安全的上下文服务框架。

Sugar MCP Server

基于 Sugar 的 MCP 服务器实现;通过 JSON-RPC 以标准化方式在 STDIN/STDOUT 上与 MCP 客户端通信,提供任务/工具相关的后端能力,并通过 Sugar CLI 实现实际功能调用,作为 Claude Code 与 Sugar 生态的后端上下文与功能提供端。

MAXential Thinking MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供可运行的思维链管理与分支导航能力,通过 JSON-RPC 与客户端进行交互,并通过 STDIO 传输实现与外部模型或工具的对接。

YakShaver MCP Server (Desktop Electron 后端)

基于模型上下文协议(MCP)的后端实现,作为 YakShaver 桌面应用的服务端,负责托管与管理内部 MCP 服务器、注册与执行工具,以及定义与渲染提示模板,通过 JSON-RPC 进行与 LLM 客户端的标准化通信,提供安全、可扩展的上下文服务框架。

Claude Agent MCP Server for Elixir

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的注册、路由与 JSON-RPC 响应,作为 Elixir 应用的后端服务,与 Claude Code CLI 控制协议配合使用(支持 in-process 服务器模式)。

IBKR MCP Server (Rust Edition)

基于 MCP 协议的高性能后端服务器实现,提供与 IBKR TWS/Gateway 交互的工具、市场数据、账户信息等能力,通过 JSON-RPC 形式对接 MCP 客户端,并以 Axum 构建的 HTTP/WebSocket 服务提供可扩展的上下文能力。

py-code-mode

基于 MCP 的后端服务,为大语言模型客户端提供标准化的上下文信息与功能支持,托管资源、注册工具、定义与渲染提示模板,并通过 JSON-RPC 与客户端交互,支持多种传输协议与会话管理。该仓库实现了 MCP 相关组件与服务器端能力,旨在在本地或分布式环境下提供可扩展的上下文服务。

Whimbox-MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器端实现,作为 Whimbox 的后端服务,通过 JSON-RPC 提供资源/工具(Tasks/宏相关接口)等能力给大语言模型客户端调用,支持健康检查、嵌入式工具渲染与多传输协议(如 streamable-http)。

MSW MCP Server

基于 Model Context Protocol 的后端服务器,为 AI 客户端提供对 Mock Service Worker (MSW) 的统一上下文服务。服务器负责托管资源、注册可执行工具、定义并渲染提示模板,并通过 JSON-RPC/WebSocket 等传输与浏览器中的 MSW 服务工作者进行动态交互和控制。

Cheat Engine MCP Bridge

基于 MCP 的后端服务器实现,提供通过 Cheat Engine 与 LLM 客户端之间的 JSON-RPC 通信,支持内存读取、工具调用以及提示模板渲染等上下文服务的本地化 MCP 服务器。

clai MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器框架,提供对 MCP 请求/响应的处理能力、资源与工具注册管理,以及通过 JSON-RPC 与客户端进行通信的多进程服务器支持与会话管理。

MCP-MCP Minecraft Model Context Protocol 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染能力。通过 JSON-RPC 形式与客户端通信,支持将 LLM 的推理与外部设备(如 Minecraft 实例)进行无缝协作,具备会话管理、能力声明与多传输协议扩展能力(如 Stdio、SSE、WebSocket)的后端上下文服务框架。

LiveKit Agents MCP Server

基于 LiveKit Agents 框架的 MCP(Model Context Protocol)服务器实现与示例,提供资源、工具与提示模板的托管与暴露,支持 JSON-RPC 风格的通信以及多传输协议(如 SSE/WebSocket/StdIO)以供 LLM 客户端访问上下文信息和外部功能。

Miyabi MCP 服务器集合

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,提供资源管理、工具注册/执行、Prompt 模板定义与渲染等能力,作为后端上下文服务框架供 LLM 客户端通过 JSON-RPC 进行资源访问、外部功能调用与交互模板渲染。仓库中包含多个可运行的 MCP 服务器示例,支持通过标准化接口对接 Claude/LLM 客户端。

Lunar MCP Server Kit

基于 Model Context Protocol(MCP)的后端服务器实现示例,提供资源/工具管理、工具执行以及面向 LLM 的上下文渲染能力,展示了如何用 MCPX 服务器核心实现 JSON-RPC 风格的请求/响应,并支持多种传输方式(如标准输入输出、SSE、HTTP 流等)。

MCP Framework - Rust MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器端实现,提供工具、资源、提示的注册与执行,并通过 JSON-RPC 与客户端进行通信,支持多传输方式(HTTP、stdio、Inspector 调试)以为大语言模型提供可扩展的上下文与功能服务。

MCP Outlet – 通用 MCP 服务器运行时与沙箱代理

基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*

BrowserWing MCP 服务器

基于模型上下文协议(MCP)的后端服务器,提供 MCP 指令注册与执行、资源与工具的管理,以及提示模板的渲染,供大模型客户端通过 JSON-RPC 调用,并可通过多传输协议进行通信。

M3M MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端以标准化方式提供 M3M 的运行时文档、工具和资源信息。服务器通过 JSON-RPC 进行通信,支持标准输入输出(stdio)和 HTTP/SSE 两种传输方式,并且具备插件扩展能力以加载外部模块的接口描述。

Sekiban MCP文档服务器

基于Model Context Protocol(MCP)的后端服务器,提供 Sekiban 文档与示例的查询、检索、分段渲染以及与LLM的交互工具,支持通过SSE/HTTP等传输方式与客户端通信,并可通过JSON-RPC风格请求获取资源、工具和提示模板等能力。

Joern MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,结合 Joern 代码分析平台,为 LLM 客户端提供统一的资源管理、工具注册、提示模板渲染等上下文服务,并通过 JSON-RPC 支持多种传输协议(如 stdio、SSE、WebSocket)来读取资源、执行工具和渲染 Prompt。该服务器实现了 MCP 的核心功能,包含会话管理、能力声明以及对外暴露的丰富工具和资源接口。

mcpd

基于 Model Context Protocol 的 MCP 服务器端后端,提供资源与工具的托管、会话管理、以及与 MCP 客户端的 JSON-RPC 通信,辅以网关、调度、工具聚合等模块实现对 MCP 服务的弹性编排与扩展。

Quint Code MCP Server

基于模型上下文协议(MCP)的后端服务,实现了通过标准 JSON-RPC 对外提供资源管理、工具注册与执行、以及上下文相关提示/工作流的能力。该实现以 stdio 为传输介质,供 LLM 客户端(如 Claude Code、Cursor、Gemini CLI、Codex CLI 等)调用并集成到软件工程场景的推理与协作中,内部使用 SQLite DB 存储知识组件与工作流状态,支持多阶段的 FP F(First Principles Framework)推理循环。

Carbon MCP Server

基于 Model Context Protocol (MCP) 的服务端实现,作为后端上下文与功能提供者,向 LLM 客户端暴露资源访问、工具注册/执行以及可渲染的对话模板能力。通过 JSON-RPC/HTTP 交互方式,整合资源管理、工具执行与上下文管理,支持会话与多种传输模式的后端服务框架。

Dingo MCP Server

基于模型上下文协议(MCP)的后端服务器,向LLM客户端标准化提供资源管理、工具注册/执行以及可自定义的提示模板渲染,通过 JSON-RPC 进行通信与协作。

JWT-HACK MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器,提供对 JWT 的解码、编码、验证、破解与攻击载荷生成等工具,通过 MCP 客户端以 JSON-RPC 形式进行查询与调用,支持标准化的资源管理与工具执行接口(通过 stdio 传输)。

Chronicle MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的注册与渲染,通过 JSON-RPC 与 AI 客户端进行交互,支持以标准输入输出(StdIO)传输的通信方式,为 LLM 应用提供可扩展的上下文服务框架。

Pagen CRM MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,用于在 Claude Desktop 等 LLM 客户端中提供统一的 CRM 上下文服务。服务器端职责包括托管资源、注册并执行工具、定义与渲染提示模板,以及通过 JSON-RPC 与客户端进行通讯,当前实现通过标准输入输出(STDIO)传输并可扩展为其他传输协议。

A-MEM MCP Server

基于 Model Context Protocol(MCP)的服务器实现,提供资源(Notes/边/图)管理、工具注册与执行、以及 Prompt 模板渲染等能力,供大语言模型(LLM)客户端通过 JSON-RPC 调用获取上下文信息、执行外部功能与搭建对话场景。

tempo-mcp

基于模型上下文协议(MCP)的服务器端实现,向大型语言模型客户端提供 Tempo 区块链的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持多传输协议与严格的会话与安全机制。

TIA MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管与管理、Prompt/模板的渲染,以及通过 JSON-RPC 与客户端通信的能力,支持多传输通道如 STDIO、WebSocket 等,帮助 LLM 客户端以标准化方式获取上下文、数据访问和外部功能调用。

YouTube Content Agency MCP 后端集合

基于模型上下文协议(MCP)的后端服务器集合,提供对资源、工具和提示模板的托管与执行,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多种传输方式,适用于为大语言模型(LLM)客户端提供上下文与功能服务的后端架构。仓库内包含 Python 与 TypeScript 实现的多个 MCP 服务器实例及客户端示例,覆盖新闻、YouTube 工具箱、Notion 驱动的框架资源等场景。

OpenAlex MCP Server

基于 FastMCP 的 MCP 服务器实现,通过 JSON-RPC 提供对 OpenAlex 的资源访问、工具执行与 Prompt 相关功能,供大语言模型客户端进行上下文查询、数据获取与分析。

News Desk MCP 服务器(Python 实现)

基于 MCP 协议的后端服务器实现,向大语言模型客户端以统一的 JSON-RPC 方式暴露新闻检索与全文获取等工具,方便在对话中调用外部功能、获取上下文信息与执行相关任务。

TEQUMSA_NEXUS — 基于 Model Context Protocol 的多服务器 MCP 实现集合

TEQUMSA_NEXUS 仓库提供以 Model Context Protocol(MCP)为核心的后端服务器实现,涵盖资源、工具、提示模板等资源的托管与管理,以及通过 JSON-RPC 风格接口进行跨节点协同与数据访问,为大语言模型(LLM)客户端提供可扩展的上下文服务框架。

OCTAVE MCP Server

基于 Model Context Protocol(MCP)的后端实现,提供对 OCTAVE 文档协议的标准化上下文服务。通过注册的工具集向 LLM 客户端暴露资源访问、外部功能调用能力,并提供对话上下文的可控渲染能力;使用 JSON-RPC 风格的通信,当前通过标准输入输出(stdio)进行交互,具备会话管理和能力声明等核心能力。

Defeat Beta MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的托管与管理,支持 JSON-RPC 客户端交互,并具备会话管理与多传输协议扩展能力,适用于向 LLM 客户端提供可访问的数据、外部功能与定制化提示。

Stock Master MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供资源、工具与模板等上下文服务,基于 JSON-RPC 通信,支持会话管理、能力声明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)与客户端对接,面向股票分析与量化交易场景的统一上下文服务框架。

AgentPool MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板的渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明及多传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

Nocturne Memory MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供长期记忆知识库、关系图谱与记忆章节的读写与管理能力,并通过 MCP 与 AI 客户端进行 JSON-RPC 风格的交互与协作。

Composter MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,提供通过 API 访问组件库资源、暴露工具以供 AI 助手调用、并支持以 MCP JSON-RPC 形式与客户端进行交互的后端服务。

AutomatosX

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 AI 客户端的上下文服务中心,提供资源(Resources)管理、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输协议以便进行安全、可扩展的上下文服务。

Fi-MCP 财务上下文管理服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现了资源(数据)托管、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 方式与客户端通信,具備会话管理、能力声明以及对多传输协议的支持,用于为 LLM 客户端提供可扩展的金融上下文服务。

Polymarket MCP 服务器

基于 Model Context Protocol 的后端服务器,向 LLM 客户端以标准化 JSON-RPC 提供资源、工具与提示模板,并实现会话管理、认证与多传输协议扩展。

vibing.nvim MCP 服务端

基于 MCP(Model Context Protocol)的 Neovim 后端实现,为 MCP 客户端提供工具暴露与执行、以及与 Neovim 的远程过程调用(RPC)桥接。通过 JSON-RPC 提供标准化的请求/响应,支持在 Studio/stdio 传输环境下与 Claude 等 LLM 客户端协同工作,便于在编辑器内进行上下文管理和外部功能调用。

TrendRadar MCP Server (NewsTest)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供新闻数据查询、AI分析工具、存储与通知等能力,采用 FastMCP 2.0 实现 MCP 协议并支持 STDIO 与 HTTP 传输,与 MCP 客户端进行标准化上下文信息访问与功能调用。

RSSMonster MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,作为 RSSMonster 应用的 MCP 服务端,向大型语言模型(LLM)客户端提供资源访问、工具执行和提示模板渲染能力。服务器通过 JSON-RPC 与客户端通信,提供对 RSS/文章、分类、订阅等资源的托管与管理,注册并执行工具以调用外部功能,以及渲染与自定义提示模板,且具备会话管理和能力声明,支持通过 HTTP(以及未来扩展的传输协议)进行多路传输。核心实现包含完整的服务端路由、数据库模型、MCP 工具集以及与 AI 相关的分析能力。

EdgarTools MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文资源、可注册的工具以及可渲染的 Prompt 模板。通过 JSON-RPC 与客户端通信,支持会话管理、能力宣告,以及多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,适配 Claude 等 AI 助手的上下文服务需求。

BL1NK Skill MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,用于托管与执行 BL1NK Skills,并集成 AWS Bedrock Nova Lite 进行技能生成与推理,支持资源、工具、提示模板的标准化管理与 JSON-RPC 通信。

Cortex Memory MCP Server

基于模型上下文协议(MCP)的服务器实现,提供内存管理、工具注册/执行和提示模板的后端服务,通过 JSON-RPC 与 LLM 客户端进行通信,支持与各种后端组件协同工作,便于在代理代理的对话系统中提供上下文性与功能性支持。

Stim Model Context Protocol (MCP) 服务器

基于 Model Context Protocol 的后端服务器实现,提供资源与工具的托管、Prompt 模板的渲染,以及通过 JSON-RPC 与 LLM 客户端进行通信的能力,支持标准化的会话管理与多传输通道(如 stdio)。

Pixeltable MCP 示例服务器

一个基于 Model Context Protocol (MCP) 的轻量级示例服务器,展示了如何注册和调用自定义工具,用于与LLM客户端交互。

AI-Parrot MCP 服务器

一个基于 Model Context Protocol (MCP) 标准,能够以 JSON-RPC 协议对外提供 AI-Parrot 工具服务的应用后端。

Storybook MCP 服务

该项目为 Storybook 提供 MCP (Model Context Protocol) 服务器,帮助 AI 代理高效理解 UI 组件信息并辅助开发流程。

Vibe Llama MCP 上下文服务器

提供基于 Model Context Protocol (MCP) 的本地服务器,为 LLM 客户端提供 LlamaIndex 生态系统的文档上下文和工具调用能力。

示例MCP笔记服务器

这是一个基于Model Context Protocol (MCP) 的服务器,用于管理简单的文本笔记作为资源,并提供总结笔记的提示模板和添加笔记的工具。

OSVM Unikernel 工具执行器

OSVM Unikernel 工具执行器是一个高性能、安全隔离的后端,专为 LLM 客户端通过 vsock 协议调用 MCP 工具而设计。

Intlayer 国际化内容管理服务器

Intlayer MCP 服务器为LLM应用提供AI驱动的多语言内容管理、翻译工具和上下文服务,通过JSON-RPC协议实现高效交互。

Airlift MCP 服务器框架

基于 Airlift 框架构建的 MCP 服务器实现,提供上下文信息、工具和 Prompt 管理,支持 LLM 客户端通过 JSON-RPC 协议进行交互。

Poet MCP 服务器

Poet 是一个集成 MCP 服务器的静态网站生成器,为 LLM 应用提供内容上下文和交互能力。

AgentGateway

AgentGateway是一个为Agentic AI设计的连接平面,支持Model Context Protocol (MCP) 和Agent2Agent (A2A),提供安全性、可观测性和治理能力,并能将传统API转换为MCP资源。

MCP天气服务演示

一个基于Model Context Protocol (MCP) 的简单Python服务器,提供天气预警和天气预报查询工具,通过JSON-RPC与LLM客户端通信。

Enso Labs - Orchestra

Enso Labs Orchestra是一个基于MCP和A2A协议的AI代理编排后端,为LLM提供上下文、工具和会话管理。

Node.js 天气 MCP 服务器

一个基于 Express.js 和 Node.js 实现的 MCP 服务器,提供天气预警和预报功能,可无缝部署到 Azure。

Cupcake订单MCP服务器

一个基于FastMCP框架构建的MCP服务器,用于管理和查询虚拟的Cupcake订单资源。

Spiceflow

一个轻量、类型安全的API框架,通过内置的Model Context Protocol (MCP) 插件,可轻松将现有API转换为LLM可用的工具和资源。

宝可梦MCP对战模拟器

一个符合Model Context Protocol (MCP) 标准的服务器,提供全面的宝可梦数据访问和逼真的对战模拟功能,支持自然语言交互。

Symfony AI Demo MCP 服务器

一个基于 Symfony 框架构建的 MCP 服务器示例,通过 JSON-RPC 协议向 LLM 客户端提供工具服务。

SQL Server MCP 服务器

将 SQL Server 数据库能力通过 MCP 协议暴露给 LLM 客户端

MCP Node.js 示例服务器

基于Node.js实现的MCP服务器示例,支持JSON-RPC、工具调用、资源访问和SSE传输。

Croft Laravel MCP Server

专为本地 Laravel 开发构建的 MCP 服务器,为 AI 客户端提供丰富的项目上下文和操作工具。

ISE MCP 服务器

一个基于MCP协议的服务器,通过JSON-RPC将思科ISE(Identity Services Engine)数据动态封装为可调用的工具。

Coputo MCP 服务器框架

基于 TypeScript 的远程 MCP 服务器框架,快速构建并托管 AI 工具和服务。

Rush Stack MCP 服务器

提供基于 Rush Stack 工具链的上下文信息和功能的 MCP 服务器实现。

Sqirvy MCP 服务器 (Go语言)

使用Go语言实现的Model Context Protocol (MCP)服务器,为LLM提供资源、工具及Prompt服务。

go-mcp

一个Go语言实现的模型上下文协议(MCP)库,用于连接LLM应用与外部数据、工具和服务。

MCP服务器示例 (Toy)

一个简单的MCP服务器示例,用于测试和演示MCP协议的基本工具功能。

.NET MCP 工具包

轻量、快速、兼容 NativeAOT 的 .NET MCP 服务器和客户端框架。

KVM 虚拟机 MCP 管理服务器

通过 MCP 协议(基于 JSON-RPC)远程管理 KVM 虚拟机,提供生命周期、网络和存储等操作接口。

Chungoid MCP 服务器

基于 MCP 协议,为 LLM 客户端提供阶段式项目初始化和工作流管理上下文服务。

基于Spring AI的MCP天气服务示例

一个基于Spring AI和MCP协议实现的后端服务,提供天气预报和警报查询工具。

MCP测试服务器集合

提供多种功能各异的MCP服务器示例,用于测试和验证Model Context Protocol客户端及服务器实现。

DevDb VS Code扩展

一个VS Code扩展,提供数据库作为AI编码的上下文信息,支持自动发现、数据浏览和修改。

go-a2a

go-a2a 是使用 Go 语言实现的 Agent-to-Agent (A2A) 协议库,它不仅实现了 A2A 协议,还集成了 Model Context Protocol (MCP),可以作为有效的 MCP 服务器使用,为 LLM 应用提供资源、工具和 Prompt 管理等上下文服务。

Swissknife A2A 服务器

Swissknife A2A 服务器是一个多代理系统后端,通过 JSON-RPC 和 SSE 协议,以 A2A 协议向客户端提供 AI 代理服务、工具扩展和上下文管理能力。

ACI.dev - AI 工具调用基础设施

ACI.dev 是一个开源平台,通过统一的 MCP 服务器和 Python SDK,为 AI Agent 提供安全、可扩展的工具集成和上下文服务。

KWDB MCP Server

KWDB MCP Server 是一个基于 Model Context Protocol 的应用后端,旨在为 LLM 客户端提供访问 KaiwuDB 数据库的标准化上下文服务,支持资源管理、工具注册和 Prompt 模板渲染等核心 MCP 功能。

Viam MCP服务器SDK

Viam MCP SDK 是一个 Rust 库,用于简化 MCP 服务器组件的开发,支持工具注册、调用和标准化的 JSON-RPC 通信。

API200 MCP 服务器

API200 MCP 服务器是一个基于 MCP 协议的应用后端,旨在将 API-200 平台集成的第三方 API 以工具形式提供给 LLM 客户端使用。

加密货币价格追踪MCP服务器示例

一个简单的MCP服务器,通过CoinGecko API提供加密货币价格信息,展示了MCP协议工具注册和执行的基本功能。

A2A代理伙伴服务器

基于A2A协议实现的代理伙伴服务器,提供工具注册、任务管理和推送通知等功能,用于构建智能代理协作系统。

Agent Swarm Kit

轻量级 TypeScript 库,用于构建可编排的多智能体 AI 系统,支持 Model Context Protocol (MCP) 服务器集成,提供上下文服务框架。

Coco MCP服务器

Coco MCP服务器是 wearable 设备 coco 的后端实现,通过 Model Context Protocol (MCP) 标准协议,为 LLM 应用提供音频数据资源访问和向量检索能力。

Shell MCP

基于Bash的轻量级MCP服务器,用于通过JSON-RPC管理和执行命令行工具。

TinyMCP Server SDK

TinyMCP Server SDK 是一个轻量级的 C++ SDK,用于构建基于 Model Context Protocol (MCP) 的服务器,专注于通过 JSON-RPC 和 Stdio 提供工具执行能力。

Tiny MCP

轻量级的MCP服务器与客户端Python实现,提供天气、时间等示例服务,助力LLM访问外部工具。

a2a4j MCP服务器

基于Spring MVC和SSE实现的MCP服务器,支持通过JSON-RPC协议与LLM客户端进行上下文信息和功能交互。

MCP Fetch Server

一个基于MCP协议的Fetch服务器,可以将URL内容抓取并转换为Markdown格式,优化AI模型的内容输入。

TypeSpec MCP Server

基于TypeSpec生成的MCP服务器,通过Stdio提供向量数学工具服务。

Sequel MCP Server

为 Claude, Cursor, WindSurf 等 MCP 客户端提供数据库查询和 schema 上下文的 MCP 服务器。

Emmett MCP

Emmett MCP 是一个用于构建 Model Context Protocol (MCP) 服务器的 Emmett 框架扩展,支持 SSE 传输协议,为 LLM 客户端提供上下文信息和工具能力。

Minimal MCP Server on IC Canister

基于 Internet Computer 的最小化 MCP 服务器实现,目前仅支持工具 (Tools) 功能和 Streamable HTTP。

MCPyATS服务器

基于pyATS的实验性MCP服务器,为LLM应用提供网络自动化和多服务工具集成能力。

MCP任务管理器服务器

基于MCP协议的任务管理服务器,使用SQLite存储,提供项目和任务的创建、查询、更新等工具接口。

ChatData MCP 服务器

提供工具和提示的MCP服务器,扩展大型语言模型能力,支持多种工具和提示模板,简化LLM应用开发。

Rust MCP SDK (RMCP)

官方Rust SDK,用于构建Model Context Protocol (MCP) 服务器和客户端,提供资源管理、工具执行和Prompt模板渲染等核心功能。

Dust MCP Server

一个简单的 MCP 服务器示例,提供了一个名为 "dust" 的工具用于演示。

Micronaut MCP工具PoC服务器

基于Micronaut框架构建的MCP服务器PoC,专注于提供工具注册和调用功能,通过标准输入/输出与客户端通信。

Simple Python MCP服务器

一个使用Python实现的简单但功能完备的MCP服务器,支持工具注册和调用,并提供时间工具示例。

CrewAI文本摘要MCP服务器

一个基于CrewAI框架构建的MCP服务器,提供文本摘要工具,支持自定义摘要长度,方便集成到LLM应用中。

Langchain NestJS MCP示例服务器

基于Langchain和NestJS构建的MCP服务器示例,演示了如何使用MCP协议提供上下文信息和工具能力。

cpp-mcp 框架

cpp-mcp 框架是一个用 C++ 编写的 MCP 服务器实现,提供资源管理、工具注册和 Prompt 模板等核心功能,并通过 JSON-RPC 协议与客户端通信。

PuTi MCP Server

PuTi MCP Server 是一个基于 FastMCP 构建的轻量级 MCP 服务器,旨在为 LLM 应用提供工具注册和执行的后端服务。

pyATS网络自动化MCP服务器

一个基于Model Context Protocol (MCP) 的服务器,通过STDIO和JSON-RPC 2.0协议,将Cisco pyATS和Genie的网络自动化能力以工具形式提供给LLM客户端。

Microsoft Paint MCP 服务器

通过 JSON-RPC 接口控制 Windows 11 画图程序,实现自动化绘图和图像编辑功能。

Medusa MCP Server

基于Model Context Protocol构建的MCP服务器,为Medusa电商平台提供数据访问和功能扩展,支持AI智能体集成。

OmniAI MCP服务器

OmniAI MCP服务器是一个基于Ruby实现的MCP协议服务器,旨在为LLM客户端提供资源、工具和Prompt模板管理能力,实现标准化的上下文服务。

Go-MCP:模型上下文协议Go语言实现

Go-MCP 是一个 Go 语言 SDK,用于构建和交互 Model Context Protocol (MCP) 应用,支持服务端和客户端实现。

Hello MCP Go Server

使用 Go 语言构建的 MCP 服务器示例,提供工具、Prompt 和资源管理功能,用于扩展 LLM 应用能力。

MCP Servers

提供Bun和Python两种语言实现的MCP服务器示例,用于演示如何构建和运行支持资源与工具管理的MCP后端服务。

llm-functions 函数工具服务器

一个基于Model Context Protocol (MCP) 的函数工具服务器,支持注册、执行多种编程语言编写的工具函数,并通过HTTP桥接扩展工具能力。

MCP REST Server Transport

基于 RESTful API 的 MCP 服务器传输层实现,支持通过 HTTP 协议接收和发送 MCP 消息。

MCP Inspector Proxy 服务器

MCP Inspector Proxy 服务器是用于调试和测试 MCP 服务器的代理工具,提供请求转发和监控功能。

MonkeyMCP服务器

基于.NET 9.0实现的MCP服务器示例,提供猴子信息查询和简单的回声工具,演示MCP服务器的基本功能。

UI自动化MCP服务器

提供跨平台桌面UI自动化能力,通过MCP协议与客户端通信,支持资源访问和工具执行。

LLM Agent MCP服务器

一个基于Model Context Protocol (MCP) 的工具提供服务器,通过JSON-RPC协议向LLM客户端提供工具能力。

PHP MCP服务器 SDK

用于构建 Model Context Protocol (MCP) 服务器的 PHP SDK,提供资源、工具和 Prompt 模板管理的核心框架与传输层实现。

Koding.js MCP服务器

Koding.js MCP服务器是一个基于Node.js实现的Model Context Protocol (MCP) 服务器,它提供资源管理和工具执行能力,通过JSON-RPC协议与LLM客户端进行通信。

Neva MCP Server SDK

Neva 是一个 Rust 语言开发的 MCP 服务器 SDK,旨在帮助开发者快速构建符合 Model Context Protocol 标准的服务端应用。

CereBro MCP服务器

CereBro Server 是一个基于 Model Context Protocol (MCP) 的后端实现,提供工具注册和执行能力,支持通过标准化的 JSON-RPC 协议与 LLM 客户端进行通信。

Golang MCP Server SDK

Golang MCP Server SDK 是一个用于构建 Model Context Protocol (MCP) 服务器的 Go 语言 SDK,旨在为 LLM 客户端提供上下文信息和工具能力。

LLDB MCP集成

该项目实现了一个MCP服务器,将LLDB调试器与AI助手集成,通过标准接口实现自然语言调试。

MCP Server示例项目

基于Model Context Protocol的服务端实现,提供天气查询和GitHub信息查询工具,增强LLM应用的功能。

Ethereum RPC MPC Server

一个为LLM应用提供以太坊区块链数据访问能力的MCP服务器,支持标准JSON-RPC调用和Zircuit扩展功能。

AgentQL MCP Server

AgentQL MCP Server是一个基于Model Context Protocol的服务器,集成了AgentQL的数据提取能力,为LLM应用提供网页数据抓取工具。

Hyperf MCP Server

基于 Hyperf 框架实现的模型上下文协议 (MCP) 服务器,支持通过 SSE 协议与 LLM 客户端通信,提供工具注册、调用等核心 MCP 功能。

MCP工具助手示例

本仓库提供了一个基于MCP协议的工具助手示例,包含MCP服务器和客户端实现,展示如何通过MCP连接LLM与外部工具。

Bhanus:MCP-vLLM集成系统

Bhanus是一个将MCP协议与vLLM集成的生产级系统,旨在高效地为LLM应用提供上下文服务和工具执行能力。

Damn Vulnerable MCP Server

一个故意存在安全漏洞的MCP服务器实现,用于AI/ML模型服务安全研究和教育。

mcp

用于构建 Model Context Protocol (MCP) 服务器的 Rust 库,提供标准化的 AI 模型上下文交换能力。

LongPort OpenAPI MCP服务器

基于LongPort OpenAPI构建的MCP服务器,为LLM应用提供股票交易和行情数据上下文服务,支持资源管理、工具注册和Prompt模板渲染。

B站视频搜索服务

基于 MCP 协议的 B站视频搜索服务,允许用户通过工具调用搜索 B站 视频内容。

MemoDB MCP服务器

MemoDB MCP服务器是基于模型上下文协议(MCP)构建的后端服务,专注于为AI应用提供对话上下文和个人知识库管理能力。

MCP天气查询服务

基于Model Context Protocol的天气查询服务,通过JSON-RPC协议提供城市、坐标天气查询及天气预报功能,可集成到Cursor等MCP客户端。

MCP TypeScript 简易模板

基于 MCP 协议的 TypeScript 服务器模板,提供工具注册和标准输入输出通信能力,可快速搭建 MCP 应用后端。

Memobase MCP Server

Memobase MCP Server 是一个基于 Model Context Protocol 的后端实现,专注于用户和 Blob 数据管理,通过工具提供数据访问能力,为 LLM 应用提供上下文服务。

AI Playground MCP Server

aiPlayground MCPServer 是一个使用 Model Context Protocol (MCP) 框架构建的简单 MCP 服务器示例,演示了如何通过标准化的协议向 LLM 客户端提供上下文服务,包括资源管理和工具注册。

MCP HTTP代理

mcp-proxy是一个轻量级HTTP代理,允许客户端通过HTTP协议访问MCP服务器,简化了部署并使其更容易在标准HTTP基础设施上运行。

Muppet

Muppet是一个用于构建Model Context Protocol (MCP) 服务器的开源工具包,旨在标准化LLM应用后端的开发流程。

Caramba MCP服务器

Caramba MCP Server是一个基于Go语言的MCP服务器实现,旨在为LLM客户端提供资源、工具和Prompt模板等上下文服务。

mcp4k框架

mcp4k是一个Kotlin实现的MCP框架,用于快速构建类型安全的MCP客户端和服务器,支持资源、工具、Prompt等核心功能。

Todo MCP Server

一个简易的待办事项管理 MCP 服务器,通过标准 MCP 协议提供待办事项的增删改查功能,方便 LLM 应用进行任务管理。

OpenAPI-MCP:OpenAPI转MCP服务器

OpenAPI-MCP是一个MCP服务器,能够动态加载OpenAPI规范,将API接口转换为LLM可调用的工具,实现LLM与外部API的集成。

Memory Bank MCP Server

Memory Bank MCP Server 是一个应用后端,基于 Model Context Protocol 构建,用于管理项目文档和上下文,为 LLM 客户端提供资源访问和工具调用能力。

Cyberon

Cyberon 是一个基于 Flask 的 Web 应用程序,同时也是一个 Model Context Protocol (MCP) 服务器,用于探索和可视化知识本体,并为 LLM 客户端提供上下文服务。

Easy MCP Server

一个轻量级的Python MCP服务器实现,通过SSE为LLM客户端提供上下文和工具能力。

时间显示MCP服务器

一个简单的MCP服务器,提供获取当前时间的功能,演示了MCP服务器的基本工具注册和Stdio传输协议的使用。

简易天气MCP服务器示例

一个本地运行的MCP服务器示例,提供城市天气查询工具。

MCP Dart SDK

基于 Dart 语言开发的 Model Context Protocol (MCP) SDK,同时提供客户端和服务端实现,用于构建 LLM 应用的上下文服务。

Encom

Encom 是一个 Ruby 库,用于构建 Model Context Protocol (MCP) 服务器和客户端,专注于提供工具执行框架。

DB MCP Server

数据库MCP服务器,为LLM客户端提供数据库操作工具和上下文信息,简化数据库集成。

Agentek MCP Server

Agentek MCP Server 是一个基于 Model Context Protocol 的应用后端,旨在为 LLM 客户端提供区块链交互工具和数据访问能力。

Montano MCP 服务器

基于 Model Context Protocol 的服务器实现,提供工具注册和执行能力,并通过标准协议与 LLM 客户端通信。

终端命令MCP服务器

一个基于MCP协议实现的服务器,允许LLM客户端通过工具调用执行终端命令,扩展LLM的系统交互能力。

FastAPI MCP Server

基于FastAPI框架实现的MCP服务器,旨在为AI助手提供统一的工具和数据源访问接口。

Prospect Research MCP Server

一个基于 Model Context Protocol (MCP) 的简单服务器实现,提供基础的 Prompt 模板和 Tool 工具,用于 LLM 应用的上下文服务。

MCP-rs Rust服务器实现

MCP-rs 是一个使用 Rust 语言实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具注册和 Prompt 模板等核心功能,支持多种传输协议,为 LLM 应用构建可扩展的上下文服务。

Agentic Security MCP Server

Agentic Security MCP 服务器是一个为 Agentic Security 漏洞扫描器提供 MCP 协议接口的服务器实现,允许 LLM 客户端安全地调用安全扫描功能。

MCPServers Swift实现

基于Swift和SwiftMCP构建的MCP服务器集合,旨在为LLM客户端提供资源、工具和Prompt模板管理等上下文服务。

Hermes MCP

Hermes MCP 是一个用 Elixir 开发的 Model Context Protocol (MCP) 服务器和客户端库,旨在为 LLM 应用提供标准化的上下文服务框架。

Kotlin MCP 示例服务器

基于Kotlin开发的MCP服务器示例,用于演示和学习如何构建支持LLM上下文交互的后端服务。

简易天气查询MCP服务器

一个简单的MCP服务器示例,提供查询城市天气信息的功能,演示了如何使用MCP协议注册和调用工具。

java sdk

java-sdk仓库为Java开发者提供了Model Context Protocol (MCP) 的SDK,包含构建MCP客户端和服务器端应用所需的核心库和工具,简化了Java应用与AI模型和工具的标准化集成过程。

allnads

AllNads仓库实现了基于Model Context Protocol的MCP服务器,为AI智能体提供访问区块链数据和执行智能合约交易的工具,是AllNads平台后端架构的重要组成部分。

mcp server.sqlite

一个基于SQLite数据库的MCP服务器,允许通过标准MCP协议执行SQL查询。

mcp kotlin sdk

mcp-kotlin-sdk仓库是基于Kotlin实现的Model Context Protocol (MCP) SDK,它不仅提供了构建MCP客户端的能力,也包含了创建MCP服务器的功能,旨在帮助开发者便捷地构建和部署MCP应用。

mcp rs test

基于Rust实现的MCP服务器,提供基础的JSON-RPC通信和初始化、心跳检测等核心功能,用于学习和验证MCP协议。

prompt decorators

Prompt Decorators 提供了一个标准化的框架,用于增强和管理大型语言模型 (LLM) 的 Prompt,包含 MCP 服务器实现,可与 Claude Desktop 等 MCP 客户端集成。

mcp kit

mcp-kit 是一个开源工具包,用于构建基于 Model Context Protocol (MCP) 的应用后端,提供资源管理、工具集成和Prompt模板等功能,旨在简化LLM应用后端开发。

mcp server

一个基于JSON-RPC 2.0协议的轻量级MCP服务器,通过插件机制提供可扩展的工具服务,并支持能力声明接口。

effect mcp

effect-mcp 是一个使用 Effect 库构建的 Model Context Protocol (MCP) 服务器实现,提供资源管理、工具注册和 Prompt 模板功能,并通过 Stdio 和 SSE 等传输协议与客户端通信。

sse

mcp_sse 是一个 Elixir 库,用于构建基于 Server-Sent Events (SSE) 的 Model Context Protocol (MCP) 服务器,为 LLM 应用提供上下文服务后端。

mcp daemon

Rust实现的MCP服务器,提供资源管理、工具注册和Prompt模板等核心功能,支持多种传输协议。

offeryn

Offeryn是一个Rust实现的Model Context Protocol (MCP) 服务器,专注于通过工具扩展大型语言模型的能力,支持JSON-RPC over Stdio和SSE传输协议。

ModelContextProtocol.NET

ModelContextProtocol.NET 是一个C# SDK,用于构建基于 Model Context Protocol (MCP) 的服务器,提供工具集成、资源管理和 Prompt 系统等功能,并支持标准I/O和WebSocket通信。

kotlin sdk

kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。

typescript sdk

用于构建模型上下文协议(MCP)客户端和服务端的TypeScript SDK。

mcp server hello

mcp-server-hello 是一个基于 Rust 的 MCP 服务器模板,实现了资源、Prompt 和工具的基本管理功能,可作为构建 MCP 服务器的起点。

mcp text editor

tumf_mcp-text-editor 是一个MCP文本编辑器服务器,提供基于行操作的文本文件编辑和访问能力,专为LLM工具优化,支持高效的分段文件读取和冲突检测。

openrpc mpc server

基于OpenRPC的MCP服务器,提供JSON-RPC调用和发现工具,增强LLM与外部JSON-RPC服务交互的能力。

federated mcp

ruvnet_federated-mcp 是一个基于 Model Context Protocol (MCP) 规范的联邦式 AI 服务运行时系统,支持边缘计算能力,旨在简化 AI 系统与各种数据源的集成,并实现跨多个 MCP 服务器的上下文信息共享和工具调用。

oatpp mcp

基于Oat++框架的MCP服务器库,支持资源、工具和Prompt管理,可通过STDIO或SSE集成。

mcp server hello

一个基于 Rust 的 MCP 服务器模板,演示了如何实现资源、Prompt 模板和工具的托管与管理,并提供与 LLM 客户端进行 JSON-RPC 通信的基础框架。

go mcp server service

这是一个使用Go语言编写的MCP服务器示例,专注于笔记管理,实现了资源、Prompt和工具的基本功能,可作为开发自定义MCP服务器的脚手架。

mcpmock

mcpmock是一个CLI工具,用于模拟MCP服务器,通过YAML文件预设场景响应JSON-RPC请求,方便MCP客户端测试和开发。

foxy contexts

基于Golang开发的库,用于声明式构建Model Context Protocol (MCP) 服务器,支持资源、工具和Prompt等核心概念,并提供Stdio和SSE传输。

mcp kotlin sdk

MCP Kotlin SDK 提供构建和运行 MCP 服务器及客户端的能力,示例代码展示了资源和工具管理功能。

mcp time

mcp-time 是一个简单的 MCP 服务器,用于获取当前时间。它通过 JSON-RPC 协议响应请求,返回 JST 格式的当前时间字符串,适用于需要时间功能的 LLM 应用。

model context protocol rs

一个Rust实现的MCP服务器,提供资源管理、工具调用和Prompt模板功能,支持STDIO和SSE传输协议,用于构建LLM应用的上下文服务后端。

ex mcp test

ExMCP Test Server 是一个使用 Elixir 语言开发的 MCP 协议测试服务器,实现了资源、工具和 Prompt 模板的管理功能,用于实验和验证 MCP 协议的各项特性。

go mcp server service

该仓库实现了一个基于JSON-RPC 2.0协议的MCP服务器,用于管理笔记,并提供Prompt模板和工具扩展功能,是一个轻量级的MCP服务器示例。

Pandas Data Analysis

该仓库实现了一个基于MCP协议的服务器,通过调用Python Pandas库,为LLM客户端提供CSV数据分析和可视化的工具服务。

CrewAI (Near Intents)

CrewAI MCP Server是一个基于Python实现的MCP服务器,它利用Claude API提供AI智能体和任务管理能力,支持通过JSON-RPC协议进行工具调用和会话交互。

OpenRPC

一个基于 OpenRPC 协议的 MCP 服务器,通过工具提供 JSON-RPC 服务调用和发现能力,允许 LLM 客户端与 JSON-RPC 服务交互。

WordPress AI Integration

WordPress MCP Server 通过 JSON-RPC 接口,为 LLM 提供对 WordPress 网站内容(如文章)的创建、读取和更新能力,实现 AI 与 WordPress 内容管理的集成。

Lingo.dev

Lingo.dev CLI 提供 MCP 服务器模式,允许 AI 客户端调用其翻译工具进行文本本地化。

Quarkus MCP Server

Quarkus MCP Server是一个基于Quarkus框架的扩展,用于简化Model Context Protocol (MCP) 服务器的开发,帮助开发者轻松构建LLM应用的后端服务,实现与外部数据源和工具的无缝集成。

Minecraft Model Context Protocol

MCPMC是一个MCP服务器,使AI代理能够控制Minecraft机器人,通过JSON-RPC提供对Minecraft世界信息和操作的标准化访问。

MCP Server Starter

MCP Server Starter是一个基于TypeScript的模板,用于快速构建MCP服务器,方便AI智能体与各种工具和数据源集成。