← 返回首页

"工具执行"标签的搜索结果

找到 272 个结果

Claude Cognitive MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,为 LLM 客户端提供资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染等上下文服务,支持 JSON-RPC 通信及多传输协议(如 STDIO、HTTP/SSE/WebSocket)以实现安全、可扩展的后端上下文服务。

Playwriter MCP 服务器

基于 Model Context Protocol (MCP) 构建的 MCP 服务器实现,负责以标准化方式向 LLM 客户端提供上下文信息与功能,包括资源管理、工具注册与执行,以及 Prompts 的定义与渲染,支持本地/远程 relay 环境与多传输通道的 JSON-RPC 通信。

Agent Layer MCP 服务器框架

基于 Model Context Protocol(MCP)的后端框架,提供资源托管、工具注册与执行、以及基于模板的 Prompt 渲染,支持 JSON-RPC 通信与多传输协议(如 StdIO、SSE、WebSocket)以向 LLM 客户端提供上下文信息与外部功能。仓库不仅包含客户端示例,还实现服务器端能力、Prompts 及与客户端的集成运行逻辑。若要在实际环境中搭建 MCP 服务器,可使用内置的 MCP Prompts 服务器和通用服务器配置来对接不同的 MCP 客户端。

mcp-agents

基于 Model Context Protocol 的服务器实现,将 Claude Code、Gemini CLI、Codex 作为工具对外暴露,供 MCP 客户端调用并通过标准输入输出进行通信。

Keep MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,提供标准化的后端上下文服务,能够向客户端暴露 Resources、Tools,以及通过 MCP 协议读取和执行操作的能力,并以 JSON-RPC 形式进行请求/响应。实现了 MCP 的核心处理路径(初始化、获取资源、读取资源、列出工具、执行工具),并提供一个可运行的服务器接口入口(包括在 STDIO 模式下接收请求并返回响应的能力)。

foobara-py MCP 服务器实现

基于 Foobara 的 MCP 服务器实现,提供资源(Resource)、工具(Tools)、提示模板(Prompts)等 MCP 组件的服务器端能力,通过 JSON-RPC 形式在 STDIO 通道下与客户端进行上下文信息与功能交互,支持命名域、会话、与命令注册的 MCP TOOL 列表与调用等核心能力。

agent-memory MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,为 AI Agent 提供长时记忆、工具执行和资源管理能力,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输通道(如 StdIO、SSE、WebSocket)。

Docs MCP Server

基于模型上下文协议(MCP)的多租户文档上下文服务端,提供资源托管、工具注册与执行、Prompts 定义与渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持健康检查、会话管理与多传输协议扩展,适用于为大语言模型提供可控的上下文与功能门控。

mcp-use

基于 Model Context Protocol (MCP) 的完整 MCP 服务端框架与生态系统,提供可扩展的 MCP 服务器实现、资源与工具托管、提示模板渲染,以及通过 JSON-RPC 与客户端通信的能力,支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,适用于搭建支持 LLM 的上下文服务后端。

Katana MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,支撑 LLM 应用的上下文与功能服务。

Engram MCP Server

基于 Model Context Protocol (MCP) 的 Engram 内存管理后端实现。该服务器将内存资源、工具执行和提示模板通过 MCP 协议对外暴露,支持 Claude Code/Cursor/Codex 等客户端的上下文注入、记忆操作和提示渲染,且具备会话管理、能力声明及多传输协议适配能力。仅作为 MCP 服务端实现,与客户端无关。

GTM MCP Server

基于 Model Context Protocol 的服务器端实现,作为 MCP 后端为 LLM 客户端提供资源、工具、Prompts 的标准化上下文与功能服务,通过 JSON-RPC 与客户端通信,并支持多种传输方式的扩展与会话管理。

Titan Memory MCP 服务器

基于 Titan Memory 的 Model Context Protocol (MCP) 服务器,采用 JSON-RPC 与客户端进行资源、工具、提示模板等上下文能力的标准化交互,支持多传输协议、会话管理与安全认证,面向 LLM 客户端提供可扩展的上下文服务框架。

Godot MCP Unified Server

基于 Model Context Protocol (MCP) 的完整后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 与 LLM 客户端通信,支持 Godot 引擎与编辑器插件的桥接执行,满足在多传输通道下的上下文服务需求。

go-invoice MCP 服务器

基于 Model Context Protocol (MCP) 的本地化后端服务器,提供资源、工具和提示模板等上下文能力,通过 JSON-RPC 与 Claude Desktop/Code 客户端通信,支持 HTTP 和 stdio 双传输,适配本地发票管理的 AI 场景。

ayga-mcp-client

基于 Model Context Protocol 的 MCP 服务器实现,通过 Redis API 提供解析器集合、工具执行和上下文提示等能力,向 LLM 客户端提供结构化的上下文服务与任务执行入口。

Swarm Tools MCP 服务器

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,围绕 Swarm 的 Hive/Hivemind/Swarmmail/Swarm 工具等组件,通过标准化的 JSON-RPC 接口向 LLM 客户端暴露工具注册、资源访问、提示模板等能力,并以 stdio 为传输实现服务器端与客户端的通信与协作。

My AI Resources MCP 服务端集合

基于 Model Context Protocol (MCP) 的后端服务器实现集合,用于向大语言模型客户端提供统一的上下文服务,包括资源(Resources)的托管与访问、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染。仓库内含 Memory Bank 与 Cursor Shortcuts 两个成熟的 MCP 服务器实现示例,均通过标准的 JSON-RPC 形式与客户端通信,并提供以Stdio等多种传输方式的支持。

GateFlow MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,提供对 HDL/SystemVerilog 相关资源、工具调用以及提示模板的标准化访问,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互。

CodeAgent MCP 服务器套件

基于 Model Context Protocol (MCP) 的多模块后端服务器集合,向 LLM 客户端以标准化方式提供资源、工具和提示模板的访问、执行与渲染能力,支持跨多个 MCP 服务的协同工作与会话管理。

News Digest MCP Server

基于模型上下文协议(MCP)的后端服务器实现,处理 JSON-RPC 请求,提供初始化、工具列表以及将 Claude 的 selections 写入本地文件的能力,并附带输入校验与日志记录。

Claude Task Master MCP 服务器端

基于 Model Context Protocol(MCP)的后端服务器,实现资源对接、工具注册/执行与提示模板渲染等能力,向大语言模型客户端提供标准化的上下文服务,通过 JSON-RPC 进行通信,支持多传输协议和会话管理,适用于多实例协同的上下文服务场景。

LandingAI ADE MCP 服务器(TypeScript实现)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的管理以及 JSON-RPC 通信,支持标准化的上下文服务与多传输协议。

Google Cloud DevOps MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器,向大语言模型(LLM)客户端提供标准化的上下文服务,包括资源(Resources)的管理、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染;通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议(如 STDIO、SSE、WebSocket)的扩展能力。

Feonix Insight MCP KB Server

基于模型上下文协议(MCP)的知识库后端服务器实现,提供资源管理、工具执行以及提示模板等功能,并通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持网络访问与安全认证。该仓库中存在实现 MCP 的服务器端代码(如 mcp_kb_server.py、feonix_kb_server.py 等),实现了 Initialize、Tools、Resources 等 MCP 端点及健康检查等功能。

Converse MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 Stdio、SSE、WebSocket)以构建面向 LLM 的上下文服务框架。

Zuraffa MCP 服务器

基于模型上下文协议(MCP)的后端服务,向大型语言模型客户端提供资源、工具和提示模板的上下文能力,通过 JSON-RPC 的方式进行请求/响应,并支持多种传输协议(如 STDIO、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

Temple Vault MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器,实现资源、工具、提示模板等核心接口,使用 JSON-RPC 与客户端通信,向 LLM 客户端提供资源访问、工具调用与提示渲染能力,并支持多种传输协议(stdio、SSE、streamable-http 等)。

Claude-Mem MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册/执行、Prompt 定义与渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理与多传输协议,作为 LLM 应用的上下文服务后端。

agnix MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向大模型客户端以标准化方式提供资源、工具与提示模板等上下文能力;通过 JSON-RPC 与客户端通信,支持多传输协议(stdio、SSE、WebSocket),并实现会话管理、能力声明以及对 MCP 请求/响应的处理。

Sei-MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式提供资源、工具与 Prompt 的注册、执行及渲染能力,并通过 JSON-RPC 进行通信,支持会话管理与多传输协议的后端上下文服务。

Consolidation Engine MCP 服务器

基于 Model Context Protocol (MCP) 的多层后端服务,向大型语言模型客户端提供资源管理、工具执行与 Prompt 模板渲染等上下文与功能,支持多种传输通道(stdio、HTTP、WebSocket、UDP InterLock)实现可扩展的上下文服务框架。

MeMesh

基于 Model Context Protocol (MCP) 的后端服务器(MeMesh,原 Claude Code Buddy),为大语言模型客户端提供记忆化上下文、资源管理、工具执行与可定制的 Prompt 模板渲染,支持 JSON-RPC 通信、会话管理以及多传输协议(如 Stdio、SSE、WebSocket)。

TodoFlow MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源(任务)的托管与数据访问、工具注册与执行、以及面向 LLM 的提示/上下文渲染能力,并通过 MCP 方式与客户端进行 JSON-RPC 风格的交互,支持流式响应和多种传输场景(如 SSE)。

Hive MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,用于以标准化的 JSON-RPC 方式向 LLM 客户端提供资源、工具及上下文相关功能,采用标准输入输出(STDIN/STDOUT)进行通信,便于 Claude Code 等客户端对接执行与查询。

Omen MCP 服务器端

基于 Model Context Protocol (MCP) 的服务器实现,向 LLM 客户端暴露资源、工具以及 Prompt 模板等分析能力,支持多种传输方式并提供会话与能力声明等 MCP 核心功能。

Auxilia MCP 服务端

基于 FastAPI 的 MCP(Model Context Protocol)服务器实现,提供对资源、工具和提示模板的托管与执行能力,支持与单个或多服务器协作、OAuth/API Key 授权、工具同步、以及流式传输等特性,面向 LLM 客户端提供标准化上下文服务。

Unicon MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向大语言模型客户端提供资源管理、工具执行与提示模板的统一上下文服务,并通过 JSON-RPC 与客户端进行通信。

Epicflare MCP 服务端实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 与 LLM 客户端进行上下文与功能交互,部署在 Cloudflare Workers 中以实现安全、可扩展的上下文服务。

Unified Hi-Fi Control MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供对 Unified Hi-Fi Control 桥接器的工具集访问能力,通过 JSON-RPC 与 Claude 等 LLM 客户端进行交互,支持以统一接口调用中控工具并获取响应。

Moonbridge MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、提示模板等上下文信息的管理与执行,并通过 JSON-RPC 与 MCP 客户端进行通信,支持并发执行、会话管理与多种传输方式以支持对话型 AI 应用。

Arena MCP Server

基于 MCP 协议的后端服务器,暴露 Arena PLM REST API 的查询与数据获取能力,供大语言模型客户端通过 JSON-RPC 调用工具、读取资源并渲染提示模板。

Autotask MCP Server

基于 Model Context Protocol (MCP) 的 Autotask MCP 服务器,向大语言模型客户端以标准化方式提供 Autotask 数据资源、工具执行能力和提示模板,支持多种传输协议(stdio、HTTP Streamable),并实现会话管理与资源/工具的统一访问。

Memo MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源索引查询、工具调用与提示渲染能力;通过 JSON-RPC(以标准输入输出传输)与客户端进行通信,支持会话管理、能力声明和简单的状态监控,便于将本地代码库上下文提供给大语言模型客户端使用。

Griffin API MCP服务器

基于 Model Context Protocol (MCP) 的后端服务,向大型语言模型(LLM)客户端提供 Griffin API 的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持 STDIO 传输等多种传输方式,帮助在对话中访问和操作银行相关数据。

Revit MCP Server

基于 Model Context Protocol 的 Autodesk Revit 后端服务器,提供资源管理、工具注册/执行和提示模板渲染,并通过 WebSocket 与 LLM 客户端进行 JSON-RPC 风格的上下文服务交互。

StoreConfig MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为 StoreConfig 的 MCP 服务器,向 LLM 客户端提供 JSON 结构化的资源、工具和上下文内容,支持通过 JSON-RPC 的请求/响应方式进行资源查询、工具执行、以及对配置模板的交互渲染,帮助 AI 辅助的配置管理场景。

MyProjectManager-Go MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt/模板渲染等能力,面向 LLM 客户端以标准化 JSON-RPC 方式提供上下文与功能服务,支持会话管理、记忆处理与多工具协作。当前实现采用 Go 语言,通过 STDIO 传输实现 MCP 服务端。

Orderly Network MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向LLM客户端提供资源管理、工具执行和提示模板等上下文信息,支持多传输协议(如 Stdio、HTTP/WebSocket),通过 JSON-RPC 进行请求-响应交互。该实现覆盖资源、工具、Prompts 的注册、查询与渲染,以及会话管理与安全能力声明等核心功能,构成可扩展的对话上下文服务框架。

AgentBusters MCP 集成后端

基于 Model Context Protocol (MCP) 的后端服务器集,提供资源托管、工具注册/执行、以及提示模板渲染等能力;通过 JSON-RPC/HTTP 等传输协议与 LLM 客户端进行标准化通信,支持会话管理、能力声明,并可扩展为多传输通道(如 STDIO、SSE、WebSocket 等)。

Tools 模型上下文协议(MCP)服务器端实现

基于 Model Context Protocol 的 MCP 服务器端实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,面向大语言模型(LLM)客户端提供标准化的上下文服务。

Zoho Analytics MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)的渲染等能力,允许通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持多传输协议(如流式 HTTP、StdIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。仓库内包含基于 Python 的 FastAPI 实现(以及可选的 Node.js 实现结构),实现完整的 MCP 服务端功能与实际数据源集成。

eBay MCP 服务器端

基于 Model Context Protocol 的服务器端实现,作为后端上下文服务向大型语言模型客户端提供资源、工具与提示模板等能力,支持多传输协议(如 STDIO、HTTP、WebSocket),通过 JSON-RPC 与客户端进行交互,包含会话管理、能力声明与工具/资源模板的注册与渲染。

ZEJZL.NET MCP 服务端实现

基于 Model Context Protocol 的多服务器后端实现,向 LLM 客户端提供资源、工具及可渲染的提示模板等上下文服务,通过 JSON-RPC 与客户端进行通信,支持多种传输方式,具备注册、管理、执行工具以及安全治理等能力。

Altmetric MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端暴露工具(Tools)与外部数据源访问能力,通过 JSON-RPC 风格的请求/响应进行交互,并支持 STDIO 传输以便与本地或嵌入式 LLM 集成。

Fathom MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册与执行、会话管理、资源与提示结构的扩展能力,并通过 OAuth 授权安全地将 Fathom 数据(会议、转录、摘要等)暴露给大语言模型客户端进行上下文服务。

Claude LTM MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供统一的资源管理、工具调用和提示渲染能力,以便向大模型客户端(LLM)提供可访问的上下文信息和功能。实现包含对资源(Memory)的托管、工具注册与执行,以及对提示/上下文的组织与渲染,支持通过标准输入输出(stdio)以及 TCP/HTTP 钩子等多种传输方式进行 JSON-RPC 交互。

Promptly MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供会话日志记录、资源与工具的注册与执行、以及对话 Prompts 的渲染与管理,并通过 JSON-RPC 与 MCP 客户端进行通信,支持本地环境下的 Stdio 传输(并具备扩展到其他传输协议的设计)。

Seren Model Context Protocol 服务端实现

基于 Model Context Protocol (MCP) 的后端服务实现,提供对资源(Resource)、工具(Tools)及提示模板(Prompts)的管理与执行能力,并通过标准的 JSON-RPC 与客户端进行通信。支持多服务器配置、OAuth 与微支付等扩展能力,能够作为 LLM 客户端的上下文与功能提供端。

Claw Control MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供对任务、代理人与消息等资源的管理,并通过 MCP 定义的工具接口向 LLM 客户端暴露可执行工具,支持通过标准的 JSON-RPC 风格请求与响应进行交互,传输可通过 STDIO(标准输入输出)实现,便于与 AI 模型或代理进行上下文协作。

MultiversX MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型(LLM)客户端提供资源管理、工具执行和 Prompt 模板渲染等标准化上下文服务,并通过 JSON-RPC 与客户端通信,支持 Stdio、HTTP 等传输模式与 UCP 发现、证据化资产流转能力。

tx MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)注册与执行、以及 Prompt 模板的自定义渲染,使用 JSON-RPC 与客户端通信,支持会话管理、能力声明并可通过多种传输协议(如 Stdio、SSE、WebSocket)对外暴露上下文服务,适用于让 LLM 客户端按统一协议获取上下文与外部功能。

Miroir MCP 服务器

基于模型上下文协议(MCP)的后端服务器,实现资源/工具/提示模板的托管与对外能力暴露,支持 JSON-RPC 请求、SSE 实时传输和会话管理,为 LLM 客户端提供标准化的上下文服务。

Distr MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与访问、工具注册与调用、以及提示模板的定义与渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输方式(如 STDIO、HTTP、WebSocket 等),用于为大语言模型提供统一的上下文与功能服务。

Claude Agent Ruby MCP Server

基于 Model Context Protocol (MCP) 的在进程内 Ruby 实现的 MCP 服务器,用于向 Claude Agent 提供工具、资源和提示等上下文能力,并通过 JSON-RPC 风格的 MCP 协议进行通信。

Marketing AI MCP

基于 Model Context Protocol (MCP) 的后端实现与运行环境,包含一个可运行的 Google Forms 相关 MCP 服务器以及用于托管和管理 MCP 子服务器的后端支持,能够通过 JSON-RPC/标准输入输出(stdio)等方式与 MCP 客户端交互,提供工具执行、资源管理与请求协同能力。

Thread MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供会话线程的托管与管理、工具注册与执行、以及输出格式的渲染;通过 JSON-RPC 与 MCP 客户端通信,支持本地与远程存储,以及通过标准输入输出(stdio)等传输方式进行交互,适用于在 LLM 应用中提供上下文与功能服务。

Phoebe MCP 服务器(Node 实现)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具执行与提示模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 两种传输模式,便于将 AI 助手接入 Phoebe API 的上下文与功能。

Lights-Out Discovery MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源发现、工具注册与执行、以及通过 JSON-RPC 与 LLM 客户端交互的能力,用于向 LLM 应用提供上下文信息与外部功能。该服务器以 MCP 规范为核心,托管并管理资源、注册工具、渲染提示模板等,支持标准的请求/响应流程。

SousChef MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现;通过标准化的 JSON-RPC 方式向 LLM 客户端提供上下文信息、资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持多传输协议(如 Stdio、SSE、WebSocket),用于构建安全、可扩展的 LLM 上下文服务平台。

Databricks AI Dev Kit MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器实现,向大语言模型客户端提供资源管理、工具注册与调用、以及可渲染的 Prompt 模板等能力,通过 JSON-RPC/流式传输等方式进行通信,并具备会话管理、认证、备份与技能管理等完整功能。

Turbopuffer MCP 服务器(TypeScript 实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册、资源管理、提示模板等能力,并通过 JSON-RPC 与客户端通信,支持 STDIO 与 HTTP 传输,以供 LLM 客户端查询、调用工具和获取上下文信息。

Rossum MCP Server 与 Agent

基于 Model Context Protocol 的后端服务,提供资源管理、工具注册/调用以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,并集成 Rossum API 提供安全、可扩展的上下文服务。

Bugsy MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管与管理、注册与执行工具、以及 Prompt 模板的定义与渲染,面向大型语言模型(LLM)客户端,通过 JSON-RPC 与客户端通信,并支持会话管理、能力声明以及多种传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

Workflowy Local MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端服务器,提供 Workflowy 数据的资源托管、工具执行和提示模板渲染,供大语言模型客户端以 JSON-RPC 的方式读取和操作本地数据。

MCP Agent Mail 服务端(Rust 实现)

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、提示模板的托管与执行,并通过 JSON-RPC 形式对接 LLM 客户端,支持多传输方式(如标准输入输出/HTTP),为 LLM 应用提供安全、可扩展的上下文服务。

Raku MCP SDK

基于 Model Context Protocol (MCP) 的完整服务器端实现与示例,提供 JSON-RPC 2.0 交互、Stdio/HTTP 等传输、资源/工具/提示的管理,以及会话与扩展能力,面向将 MCP 服务化以供 LLM 客户端调用的后端应用。

AKS-MCP 服务器

基于 Model Context Protocol(MCP)的 AKS 后端服务器实现,向大型语言模型(LLM)客户端以标准化方式提供 AKS 资源、工具与提示模板,支持多种传输协议(stdio、SSE、streamable-http),并实现会话管理、能力声明以及安全认证能力。

GitHub Agentic Workflows MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文、数据访问和外部功能调用能力。

Claude Agent SDK MCP 服务端扩展

基于 Claude Agent SDK 的在进程内 MCP 服务器实现。该扩展通过 pi 主机加载自定义工具并将其以 MCP 服务器的形式暴露给 LLM 客户端,允许 LLM 调用工具、读取资源、渲染并扩展 Prompt,工具在 pi 环境中执行,输出流式更新和结果渲染。

CTX MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具与提示模板的托管、注册与渲染,支持基于 JSON-RPC 的通信、会话管理以及多种传输协议(如 STDIO、HTTP、SSE)以供 LLM 客户端调用。

Plan Cascade MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Plan Cascade 的 MCP 服务端,向 LLM 客户端提供标准化的资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 进行请求/响应通信,支持多传输协议、会话管理与能力声明,确保安全、可扩展的上下文服务。

MCP Apps 服务端实现模板

基于 Model Context Protocol 的 MCP 服务器实现模板,提供资源、工具、提示模板等的注册、执行,以及与 MCP Hosts 的协议通信能力,支持资源管理、工具注册与调用、Prompt 模板定义与渲染,适用于在 AI 客户端内提供可渲染的互动 UI 与上下文数据。

Stitch MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端实现,提供对资源、工具与提示模板的托管、注册与渲染能力,并通过 JSON-RPC 与 LLM 客户端通信。内置会话管理、能力声明以及支持多传输协议的 MCP 服务器代理功能,面向大语言模型应用提供安全、可扩展的上下文服务框架。

Argus MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端提供资源管理、工具注册/执行以及提示模板渲染等标准化上下文服务,支持多传输协议并实现会话与能力声明等 MCP 核心能力。仓库中包含用于集成 LispLang LangGraph 与 Playwright 的 MCP 服务实现、以及与 Argus E2E 测试引擎的对接插件。

模型上下文协议(MCP)后端服务器实现—Cocos CLI 组件

基于模型上下文协议(MCP)的后端服务器实现,专注为大语言模型客户端提供标准化的上下文服务:托管资源、注册并执行工具、定义和渲染Prompt模板;通过 JSON-RPC 进行通信,具备会话管理与能力声明,并支持多种传输通道,以实现安全、可扩展的上下文服务框架。

Harness MCP 服务器端

基于 Model Context Protocol (MCP) 的完整后端服务器实现,提供资源、工具和提示模板的托管与数据访问,通过 JSON-RPC 形式与 MCP 客户端通信,支持 HTTP 与 stdio 两种传输模式,并实现会话管理、能力声明及多工具集扩展与集成 Harness API 的能力。

OneTool MCP 服务器

基于 Model Context Protocol 的后端服务器实现,向大语言模型客户端提供资源托管、工具注册与执行,以及可渲染的 Prompt 模板,采用 JSON-RPC 进行通信,支持多种传输协议并具备会话管理与能力声明。

NodeSpace MCP Server(核心实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)注册与执行、以及 Prompt 模板的渲染与管理,通过 JSON-RPC 2.0 与本地的 LLM 客户端进行通信。支持多传输协议(如 StdIO、HTTP 及 SSE),具备会话管理、能力宣告和安全可扩展的上下文服务能力,适用于在本地环境下为本地 AI 助手提供稳定的上下文及外部能力接入。

Poe Code MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板的托管与管理,以及通过 JSON-RPC 与客户端进行通信,支持多传输通道,供大语言模型应用安全、可扩展地获取上下文与外部功能。

Codex MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板的渲染,使用 JSON-RPC 与 MCP 客户端通信,支持通过 Stdio 传输等多种通道进行上下文服务交互。

ASON MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供 compress_json、decompress_ason、get_compression_stats、configure_compressor 等工具,以 JSON/ASON 数据压缩、解压、分析并支持可配置的全局参数管理

Tweek MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与管理、工具注册与执行、以及 Prompt 模板渲染等核心功能,能够通过 JSON-RPC 与 LLM 客户端进行上下文信息与功能的标准化交互。服务器端负责会话管理、能力声明与多传输通道支持(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

CompText MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具执行与提示模板渲染能力,面向大语言模型(LLM)客户端以标准化方式提供上下文数据与功能。

ez-xbow-platform-mcp

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端提供资源管理、工具执行和提示模板等上下文服务,支持多传输协议、会话管理与本地历史记录,为 AI 驱动的安全挑战赛场景提供后端支撑。

Email MCP Server 示例

一个基于 MCP(Model Context Protocol)协议的后端实现示例,专注于模拟一个邮件发送工具的注册与调用,通过标准的 MCP 流程向客户端暴露工具并支持通过 STDIO 传输与客户端通信。

Metronome MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源/上下文能力的托管,以及通过 JSON-RPC 与客户端通信的能力,支持多种传输方式(stdio、HTTP),用于为 LLM 客户端提供稳定、安全、可扩展的上下文服务。

Gmail MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型(LLM)客户端提供 Gmail 相关工具的统一访问接口,支持 JSON-RPC 请求/响应,工具注册与执行,并通过标准化的 MCP 通信传输(如标准输入输出)进行交互。

Ripperdoc MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器,向大语言模型客户端提供资源管理、工具注册/执行和提示模板渲染等能力,并通过 JSON-RPC 进行通信与协作,支持多传输协议(如 Stdio、SSE、WebSocket)和会话管理,提供安全、可扩展的上下文服务框架。

MCPChecker-MCPServer

基于 Model Context Protocol 的可运行 MCP 服务器实现与测试框架,提供工具、资源托管、工具调用执行、以及对扩展与评测的支持,便于对接大语言模型客户端进行上下文服务测试和集成验证。

FreeAct MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供 JSON-RPC 风格的资源管理、工具注册与执行、以及 Prompt 渲染,支持基于 BM25/向量的工具搜索、审批流控制和多种传输模式,面向为 LLM 客户端提供安全、可扩展的上下文服务。

Zoekt MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务,将 Zoekt 代码索引后端作为数据源,向大型语言模型(LLM)客户端提供标准化的上下文信息与功能。核心功能包括托管资源、注册并执行工具(如搜索、文件内容、符号/文件检索、健康检查等)、以及定义并渲染统一的 Prompt 模板,支持 JSON-RPC 交互以及多传输协议(STDIO 和 HTTP/SSE)等安全可扩展的上下文服务框架。

Planet MCP Server

基于 Model Context Protocol 的本地 MCP 服务器实现,提供对 Planet API 的上下文访问、工具调用与提示渲染能力,帮助大语言模型在本地环境中高效地与 Planet 数据和功能交互。

BCS MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供数据资源管理、工具注册与执行,以及与向量化嵌入等组件的整合,作为大语言模型(LLM)客户端的上下文与能力后端服务。

BriefDesk 本地化上下文服务集成

BriefDesk 提供一个本地化的上下文服务方案,包含 Gmail、Google Drive 等 MCP 服务以及一个中心化的上下文搜索与整合组件,用于向本地大语言模型客户端提供资源、工具和提示模板等能力。系统通过 MCP 协议实现可扩展的 JSON-RPC 通信,支持资源检索、外部工具执行和提示渲染,具备会话管理、认证与多协议传输能力。

ClawStreetBets MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,将 ClawStreetBets 的市场与代理管理功能暴露给 AI 客户端,允许通过 JSON-RPC 调用工具、查询资源以及执行投票等操作,并通过 STDIO 传输进行交互。

UnitOne AgentGateway MCP Server 套件

基于模型上下文协议(MCP)的后端网关与测试服务器集合,提供对 MCP 请求的路由与代理、会话管理、工具执行、资源访问,以及安全守护(如 PII 过滤、工具毒性检测、Rug Pull 防护)等功能,同时包含用于本地/云端部署的测试 MCP 服务器实现与示例。

Kubescape MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源(Resource)托管、工具(Tools)注册与执行,以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,提供安全、可扩展的上下文服务,便于 LLM 进行集成查询和调用外部功能。

Tabularis MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与数据访问、工具注册与执行、以及用于 LLM 的 Prompt 模板渲染。通过 JSON-RPC 与客户端通信,当前实现采用标准输入输出(Stdio)传输,读取客户端请求并输出响应;同时具备会话管理、能力声明与资源/工具渲染等核心能力,便于外部代理或图形化客户端接入以提供上下文信息与外部功能调用。

CrawlChat MCP 服务端实现

基于模型上下文协议的 MCP 服务器实现,提供资源、工具和提示模板的后端能力,通过 JSON-RPC 与客户端通信,注册并执行工具、管理会话并支持简单的 stdio 传输。

Helpmaton MCP 服务端实现

基于 Model Context Protocol(MCP)的服务端实现,提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与 LLM 客户端通信,管理会话与能力声明,并具备多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,用于对接外部数据源、工具和上下文提示等,实现对 LLM 的上下文服务提供与编排。

Linggen MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供以标准化方式向 LLM 客户端提供上下文信息和功能的能力。通过 JSON-RPC 与客户端通信,核心包含工具注册/执行、提示模板渲染,以及与资源/查询接口的集成。当前实现使用 stdio 传输,在服务端对接 Linggen 后端 API 提供的能力,支撑 LLM 在设计、索引与查询场景中的上下文服务。

LlamaCloud MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,作为 LLM 客户端的后端上下文服务,提供资源管理、工具注册与执行、以及提示模板渲染等能力;通过 JSON-RPC 与客户端通信,支持多传输(如 STDIO、HTTP),并包含会话管理、能力声明与日志控制等核心特性。

discord-py-self-mcp

基于 Model Context Protocol 的 MCP 服务器实现,用于将一个 Discord 自助账户的资源、工具与对话模板通过标准化的 MCP JSON‑RPC 后端对接到 LLM 客户端,支持 stdio 传输并以 JSON-RPC 提供资源、工具执行与提示渲染等功能。

AILSS MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,为 Obsidian 知识库提供资源、工具、提示模板等统一访问接口,通过 JSON-RPC 与客户端通信,支持 STDIO 与本地 HTTP 传输,并与本地向量检索索引数据库协同工作。

Inspector:基于模型上下文协议的本地MCP服务器实现

一个完整的MCP服务器实现,提供资源、工具、提示模板等上下文服务,支持JSON-RPC通信、会话管理与多传输协议,面向本地开发、调试和集成OpenAI/Claude等LLM应用。

Harbor MCP Server Demo - Acme Shop

基于 Model Context Protocol (MCP) 的示例后端,展示如何在 Harbor 生态中托管、暴露 MCP 服务、工具及数据资源,支持通过 SSE/HTTP 等传输方式与 LLM 客户端进行资源访问、工具执行与提示模板渲染等上下文服务。

workspace-qdrant-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 4 种 MCP 工具(search、retrieve、memory、store)的暴露与管理,并通过 JSON-RPC 与 LLM 客户端交互;同时集成 Rust 守护进程 memexd、Qdrant 向量数据库及 SQLite 队列,支持会话管理、心跳机制与降级处理。

XPollination MCP 服务器端

基于 Model Context Protocol(MCP)的后端服务器,提供资源管理、工具注册与执行、以及提示模板的标准化上下文服务,面向 LLM 客户端通过 JSON-RPC 进行通信与交互。

AdCP MCP 服务器

基于 Model Context Protocol(MCP)的广告自动化后端实现,提供资源、工具和 Prompt 模板的托管与管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

Moltbook MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,托管并管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),通过标准的 JSON-RPC 方式向 LLM 客户端提供上下文信息与功能,并支持组件化扩展与会话分析。<br/>该仓库实现了完整的 MCP 服务端框架及多组件插件,能够在 Node.js 环境中运行并对外提供 MCP 接口。<br/>注:项目使用 stdin/stdout 作为传输通道(Stdio Server Transport),并提供了丰富的组件体系以实现资源、工具、提示模板等能力。

Arctic MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器端实现,提供资源(Resources)托管与管理、工具(Tools)的注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端进行安全、可扩展的上下文服务交互,支持多传输协议(如 Stdio、SSE、WebSocket)和会话管理等核心能力。

Abstracts Explorer MCP Server

基于 MCP(Model Context Protocol)协议的后端服务器,向 LLM 客户端提供统一的上下文资源、可注册执行的工具以及可渲染的提示/模板,支持 JSON-RPC 通信、多种传输协议,以及会话管理与能力声明,便于在聚类分析、语义检索和论文上下文中为大语言模型提供可扩展的 contexto 服务。

Claude Copilot MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务器集合,提供内存管理、语义检索、知识扩展与技能加载等能力,面向 Claude Copilot 等 LLM 客户端,通过标准化的 JSON-RPC 交互向客户端提供资源、工具、提示等上下文与功能服务。

AIPartnerUpFlow MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。

n2n-memory MCP 服务器

基于 MCP 的本地内存型服务器,提供知识图谱持久化、工具执行与上下文管理,以 JSON-RPC 形式对接 LLM 客户端。

Koder MCP后端服务器实现

基于 Model Context Protocol (MCP) 的后端服务,集成资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式(stdio、SSE、HTTP)以提供可扩展的上下文服务框架。

Agents Council MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,支持多代理协同的会话管理、工具执行和提示渲染,面向 LLM 客户端提供标准化的上下文服务。

Agentic QE MCP Server

基于 Model Context Protocol 的后端服务,作为 MCP 服务器向 LLM 客户端以标准化方式提供资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多传输协议接入(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

Oh My OpenCode MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行标准化通信,支持多种传输协议与会话管理以实现安全、可扩展的上下文服务。

TemPad Dev MCP 服务器

基于模型上下文协议(MCP)的后端服务实现,提供资源管理、工具执行与提示模板渲染等能力,并通过 JSON-RPC 与客户端通信。实现了服务器端的工具注册与执行、资源导出与资产管理、以及对 Prompts/模板的支持,支持多传输协议(如标准输入/输出、SSE、WebSocket 等),用于为大模型/LLM 客户端提供标准化的上下文服务与能力暴露。

Overseerr MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 Overseerr 集成的上下文信息、工具和提示模板,通过 JSON-RPC 进行通信,并支持 STDIO、SSE/HTTP 等传输通道,便于在 AI 应用中进行资源检索、请求管理与媒体详情查询等功能的上下文服务。

MemWyre MCP 服务器端实现

MemWyre 的 MCP 服务器端实现,基于 Model Context Protocol 架构,为 LLM 客户端提供标准化的资源、工具与提示模板,并通过 JSON-RPC 风格接口与客户端通信,支持会话管理、能力声明及多传输通道的扩展能力。

Skrills MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管与访问、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 进行与 LLM 客户端的通信,支持多传输协议用于上下文服务的扩展性。

Xiaozhi ESP32 MCP 服务器(Golang 实现)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,并支持多传输协议(如 WebSocket、MQTT/UDP 等)通过 JSON-RPC 与客户端通信,面向边缘设备和物联网场景的上下文服务解决方案。

NiceVibes MCP 服务器

基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。

UDS-POS MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供标准化的资源(Resources)、工具(Tools)以及提示模板(Prompts),通过 JSON-RPC 与 LLM 客户端通信,支持多传输通道并对接 Supabase 数据源,构建面向 AI 赋能的上下文服务框架。该仓库包含一个完整的 MCP 服务器实现(含工具定义、资源暴露、提示模板以及 Prompt 执行逻辑),并以 Stdio 传输方式提供服务入口。

atlas-mcp

基于模型上下文协议(MCP)的服务器实现,向LLM客户端提供ATLAS Central Page的资源、工具与提示模板的统一访问接口,支持JSON-RPC风格请求/响应,以及多传输模式(如STDIO、HTTP)以服务化LLM上下文信息和能力查询。

CodingBuddy MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具、Prompt 的托管、读取和渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议以提供安全、可扩展的上下文服务。

Arivu MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。

MCP Mail 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染等能力,并通过 JSON-RPC 风格接口向 LLM 客户端暴露上下文与功能。服务器支持多种传输形式(HTTP)、会话管理、能力声明,以及可拓展的工具与资源生态,提升大模型在编码协作中的上下文服务能力。

ModelCypher MCP 服务器

ModelCypher MCP 服务器是一个基于 Model Context Protocol 的后端服务,提供资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明及多传输协议。

Workstation MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源(Resources)托管与数据访问、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC/WebSocket 等通道与 LLM 客户端进行标准化上下文服务交互。

AnkiMCP 服务端(MCP 后端实现)

基于模型上下文协议(MCP)的后端实现,将 Anki 收藏数据作为资源对外暴露,支持注册并执行工具、通过 JSON-RPC 风格的接口与客户端交互,提供权限控制和多种传输方式(如 STDIO、HTTP 等),为大语言模型助手提供可扩展的上下文服务能力。

Memory Library MCP Server

基于 Memory Library 的 MCP 服务器实现,为大语言模型客户端提供统一的上下文、工具、资源和提示,支持通过 JSON-RPC 进行交互,并可扩展的向量检索与嵌入管理能力。

MCP 服务器实现学习与示例

基于 Model Context Protocol (MCP) 的服务器端实现示例,展示如何通过 JSON-RPC 提供资源管理、工具执行与 Prompt 模板渲染等核心能力,并支持通过标准输入输出 (stdio) 的传输模式与客户端进行通信,适合作为学习和实验用途的 MCP 服务器实现。

Edda MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现(集成于 Edda 框架),通过 JSON-RPC/多传输协议向 LLM 客户端暴露 durable workflows、资源和工具,并支持 Prompts 渲染,方便 AI 助手与后端工作流进行长期上下文交互和功能调用。

MCP SQL Server Backend

基于 Model Context Protocol (MCP) 的后端服务器,实现对 Microsoft SQL Server 的只读资源访问、工具执行与提示模板渲染,支持 JSON-RPC 风格的请求/响应,供 LLM 客户端在对话中获得上下文信息与外部功能。

Apply Task MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持 TUI/GUI 与 AI 助手的集成使用。

TPM-MCP 本地服务器

基于 Model Context Protocol 的本地 MCP 服务器实现,提供资源、工具和提示渲染等能力,供本地 LLM 客户端通过 JSON-RPC 方式访问并管理项目数据(包含会话、能力声明、以及多传输协议支持)。

Singular Blockly Model Context Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供可管理的资源、可注册的工具和可渲染的 Prompt 模板,通过 JSON-RPC 进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明等功能。

ai-infra MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式提供资源管理、工具注册/执行以及 Prompt 模板渲染等上下文服务,支持会话管理、能力声明与多传输协议(如 stdio、SSE、WebSocket),旨在为 LLM 应用提供可扩展、安全的上下文服务能力。

MCP Nim SDK 服务器实现

基于 Nim 的 MCP 服务器实现,提供资源、工具、提示模板等管理,支持多种传输协议(stdio、SSE、HTTP/Streamable、InMemory),并通过 JSON-RPC 与客户端进行请求与响应通信。

DevTeam6 MCP 服务器集

基于 Model Context Protocol (MCP) 的后端服务器实现集合,提供 Resources 的托管与管理、Tools 的注册与执行,以及可扩展的提示模板/交互能力,并通过标准化的 JSON-RPC 风格接口与 LLM 客户端进行通信,支持会话管理与多种传输场景。当前实现包括 MemoryMCPServer 与 RAGMCPServer 等服务器骨架,可作为 MCP 客户端对接的后端服务端。

Dec MCP Server 实现

一个基于 MCP 的后端服务器实现,提供 JSON-RPC 2.0 的初始化、工具列表与工具执行等核心接口,并通过标准输入输出与客户端通信,支持在本地运行、生成并管理 MCP 配置与规则输出。

AI-Infra-Guard MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)管理、工具(Tools)注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 与 LLM 客户端进行通信,支持多种传输通道(如 SSE、StdIO、WebSocket),为大语言模型应用提供标准化的上下文与能力服务。

Polar MCP 服务器桥接

基于模型上下文协议(MCP)的服务器实现组件,作为 Polar 电子应用的一部分,提供工具定义查询、工具执行与健康检查等核心接口,通过 HTTP 端点与客户端通信,并通过 Electron 渲染进程 IPC 与后台工具 definition/执行能力对接,从而向 LLM 客户端暴露资源、工具与提示渲染能力。

Computer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。

Context Finder MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等能力,并通过 MCP JSON-RPC 与客户端通信。该仓库实现了完整的 MCP 服务端逻辑、工具集合和向量存储等组件,支持通过多种传输方式(如 stdio、HTTP、gRPC 等)向 LLM 客户端提供结构化的上下文服务和功能。

GitHub MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供对 GitHub 的上下文资源、工具执行与提示模板的标准化访问,支持 JSON-RPC 交互,适配多种传输方式并具备会话管理、能力声明与远程工具发现等能力,用于为大语言模型提供可扩展的上下文服务。

MonicaHQ MCP Server

基于 Model Context Protocol 的 MCP 服务器,使用 Spring Boot 实现,提供 MonicaHQ CRM 数据的资源访问、工具调用及内容渲染,支持 STDIO 与 WebSocket/HTTP 等传输模式,面向大语言模型客户端(如 Claude Desktop)提供标准化的上下文服务。该服务器实现了资源管理、工具注册与执行,以及提示模板渲染等核心能力,以 JSON-RPC 2.0 进行通信。

ESP-MCP over MQTT – ESP32 的 MCP 服务器实现

基于 MCP(Model Context Protocol)在 ESP32/ESP-IDF 上实现的 MQTT 传输 MCP 服务器,提供资源管理、工具注册与调用、以及 Prompt/模板支持,利用 JSON-RPC 与客户端通信,适用于边缘设备上的上下文与能力服务。

Cognia MCP 服务端实现

基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。

AstroFusion Design System MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染,使用 JSON-RPC 与客户端通信,当前实现通过标准输入输出传输(Stdio)提供 MCP 服务并暴露设计系统的令牌、组件规则与提示内容。

mcpkit

基于 Model Context Protocol (MCP) 的服务器端实现框架,提供资源、工具、提示的托管、注册、路由与多传输支持,面向 LLM 客户端的上下文服务。

GPT4Free MCP 服务器

基于 Model Context Protocol (MCP) 的多模型上下文服务后端,向 LLM 客户端提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持会话管理并兼容多种传输协议(STDIO/SSE/WebSocket),为 AI 应用提供可扩展、安全的上下文服务框架。

AdCP Sales Agent MCP Server

基于模型上下文协议(Model Context Protocol, MCP)的后端服务器,向大型语言模型(LLM)客户端以标准化方式提供资源数据、工具执行能力和可渲染的提示模板,支持多租户、会话管理以及通过 JSON-RPC 与客户端通信的上下文服务框架,适用于广告投放场景的自动化协作与执行。

WeKnora MCP 服务端

基于 WeKnora 的 MCP(Model Context Protocol)服务器实现,向大模型客户端提供标准化的资源、工具与提示模板的上下文服务,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,用于实现安全、可扩展的上下文环境。该服务器通过 JSON-RPC 与客户端进行通信,承载资源访问、工具注册/执行与提示渲染等核心能力。典型场景包括对接外部知识库、执行工具调用、以及渲染与提供定制化的 Prompt 模板。

Fred MCP 服务器实现套件

基于 Fred 平台的 MCP 服务器实现,提供以标准化方式向大语言模型客户端提供资源、工具、提示模板等上下文与能力的后端服务,并通过 JSON-RPC/多传输通道进行通信。包含知识流后端的完整 MCP 服务、以及用于快速演示的最小 MCP 服务器示例和相应部署示例。

Claude Code Workflow MCP 服务器

基于 Claude Code Workflow 的 MCP 服务器实现,使用 JSON-RPC 与客户端通信,核心职责是托管资源、注册工具、定义并渲染 Prompt 模板,为 LLM 客户端提供可扩展的上下文服务。

MCP Guard 安全网关

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板定义与渲染等核心能力,并通过 JSON-RPC 与客户端通信;内置认证、授权、速率限制、观测与审计等安全特性,支持多传输协议(Stdio、HTTP、SSE)以及多服务器路由场景,能为 LLM 客户端提供安全、可扩展的上下文服务框架。

Concierge MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册/执行、Prompt 模板渲染,并通过 MCP/JSON-RPC 进行客户端交互,支持会话管理与跨协议传输,面向 LLM 客户端提供可扩展的上下文服务框架。

Fastly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并可在 stdio、HTTP(含 SSE)等传输模式下运行,具备会话管理、能力声明和安全保护机制。

Opencode MCP 语义上下文服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于向 LLM 客户端提供持久化记忆、工具执行和 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持内存资源管理、工具注册/执行、Prompt 渲染,以及会话管理,具备本地向量检索、离线嵌入和多种传输能力的服务端实现。

docsearch-mcp

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供资源访问、工具调用和提示模板的统一上下文服务,支持文档索引、向量检索、以及与 Claude Code 等 MCP 客户端的无缝集成。

Claude Sessions MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现 Claude Code 会话的资源管理、工具执行与提示渲染,提供统一的上下文服务给 LLM 客户端,采用 JSON-RPC 进行交互,支持多传输方式并完成会话、资源、工具等能力的托管与管理。

Sunpeak MCP 服务器端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具调用以及资源渲染的服务端能力,并通过 JSON-RPC/ SSE 方式与客户端通信,支持多会话与会话管理,适用于在后端向 LLM 客户端提供可扩展的上下文服务。

HealthSim MCP Server

基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。

Krolik MCP 服务器(Claude Code 集成)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管与管理、工具注册/执行,以及提示模板的定义与渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议的上下文服务框架。

narsil-mcp

基于 Model Context Protocol (MCP) 的高性能本地后端服务器实现,提供资源管理、工具注册与执行、以及基于模板的 Prompt 渲染,支持 JSON-RPC 标准交互、会话管理和多传输协议(如 STDIO、SSE、WebSocket),用于本地化的代码上下文理解与分析场景。内置多语言代码解析、符号与引用检索、调用图与安全分析等工具集,面向离线/隐私安全的 LLM 客户端提供丰富上下文服务。

LDAP Assistant MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 LDAP 目录服务的资源管理、工具执行与提示模板渲染能力,使用 FastMCP 与客户端进行 JSON-RPC 风格的通信,支持多服务器配置、会话管理以及多种传输方式(以 STDIO 为初始实现)。

Reachy 身体控制 MCP 服务器

基于 Model Context Protocol (MCP) 的 Reachy Mini 机器人身体控制服务器实现,暴露23个可通过 MCP 客户端调用的工具,并通过 Reachy Daemon(实际硬件或 MuJoCo 仿真)实现对头部、天线、表情、捕获等操作,支持动态工具发现、权限控制和审计日志等能力。

GTM Wizard MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 AI 代理提供资源、工具、提示等上下文服务,并通过 JSON-RPC 与客户端交互,支持资源管理、工具执行与提示渲染等核心能力。

Super AI Plugin Hub

基于 Model Context Protocol (MCP) 的服务器端框架,聚合、管理资源与工具,并通过 JSON-RPC 将上下文、工具与提示暴露给 LLM 客户端,同时支持本地与远程 MCP 服务器的代理与协作。

mcp-agent-builder-go

基于Go实现的MCP后端服务器,提供资源管理、工具注册与执行、提示模板渲染,以及面向多MCP服务器的上下文服务框架;通过多协议通信(HTTP/SSE/stdio 等)与LLM客户端协同工作,支持任务编排、工具调用、以及会话级别的上下文管理。该仓库不仅包含服务端实现,还包含用于工具、客户端以及前端的相关组件与示例,目标是构建一个可扩展的MCP服务器生态。通过统一的接口实现资源、工具、提示模板的托管、注册与执行。

OOREP MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理、工具注册与执行、以及提示模板渲染,向大语言模型客户端提供可扩展且结构化的上下文服务与数据访问能力。

NetMCP

基于 Model Context Protocol 的 MCP 服务器实现,用于作为后端上下文服务向大语言模型客户端提供资源管理、工具执行和提示模板渲染等能力,支持通过 JSON-RPC 方式与客户端交互并管理会话与安全策略。

LiveKit Agents MCP Server

基于 LiveKit Agents 框架的 MCP(Model Context Protocol)服务器实现与示例,提供资源、工具与提示模板的托管与暴露,支持 JSON-RPC 风格的通信以及多传输协议(如 SSE/WebSocket/StdIO)以供 LLM 客户端访问上下文信息和外部功能。

Lunar MCP Server Kit

基于 Model Context Protocol(MCP)的后端服务器实现示例,提供资源/工具管理、工具执行以及面向 LLM 的上下文渲染能力,展示了如何用 MCPX 服务器核心实现 JSON-RPC 风格的请求/响应,并支持多种传输方式(如标准输入输出、SSE、HTTP 流等)。

MCP Framework - Rust MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器端实现,提供工具、资源、提示的注册与执行,并通过 JSON-RPC 与客户端进行通信,支持多传输方式(HTTP、stdio、Inspector 调试)以为大语言模型提供可扩展的上下文与功能服务。

MCP Outlet – 通用 MCP 服务器运行时与沙箱代理

基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*

Chronicle MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的注册与渲染,通过 JSON-RPC 与 AI 客户端进行交互,支持以标准输入输出(StdIO)传输的通信方式,为 LLM 应用提供可扩展的上下文服务框架。

Memo MCP 服务端实现

一个基于 Charm KV 存储的 MCP 服务器实现,提供资源、工具、和提示模板等功能,供对话式 AI 客户端通过 JSON-RPC 与后台进行上下文交互与操作执行。当前实现通过标准输入输出(stdio)传输进行 JSON-RPC 的通信。

ChatGPT App MCP Server (SSE) - Node.js 实现

基于 Model Context Protocol (MCP) 的服务端实现,使用 SSE 传输,提供资源与资源模板的托管、工具注册与执行,以及嵌入式 Widget 的渲染能力,作为 ChatGPT 应用的上下文与功能后端。

YouTube Content Agency MCP 后端集合

基于模型上下文协议(MCP)的后端服务器集合,提供对资源、工具和提示模板的托管与执行,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多种传输方式,适用于为大语言模型(LLM)客户端提供上下文与功能服务的后端架构。仓库内包含 Python 与 TypeScript 实现的多个 MCP 服务器实例及客户端示例,覆盖新闻、YouTube 工具箱、Notion 驱动的框架资源等场景。

Code Guardian MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议接入。

OCTAVE MCP Server

基于 Model Context Protocol(MCP)的后端实现,提供对 OCTAVE 文档协议的标准化上下文服务。通过注册的工具集向 LLM 客户端暴露资源访问、外部功能调用能力,并提供对话上下文的可控渲染能力;使用 JSON-RPC 风格的通信,当前通过标准输入输出(stdio)进行交互,具备会话管理和能力声明等核心能力。

Strudel MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,面向 Strudel 音乐助手,提供资源管理、工具执行与提示模板等上下文信息,通过 JSON-RPC 与 LLM 客户端进行交互,并支持基于文件系统的存储与扩展工具集。

ContextStream MCP Server

基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,提供资源托管、工具执行、提示模板渲染,以及与大模型客户端的 JSON-RPC 通信,支持会话管理、能力声明和多种传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供安全、可扩展的上下文服务。该仓库不仅包含服务器核心逻辑,还实现了资源、工具、会话初始化、自动上下文注入等关键能力的模块化实现。

Stock Master MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供资源、工具与模板等上下文服务,基于 JSON-RPC 通信,支持会话管理、能力声明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)与客户端对接,面向股票分析与量化交易场景的统一上下文服务框架。

AgentPool MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板的渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明及多传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

Trinity MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具、提示以及跨代理协作的标准化上下文服务,支持多传输协议、会话与权限管理、以及多代理系统的编排能力。

Cortex Memory MCP Server

基于模型上下文协议(MCP)的服务器实现,提供内存管理、工具注册/执行和提示模板的后端服务,通过 JSON-RPC 与 LLM 客户端进行通信,支持与各种后端组件协同工作,便于在代理代理的对话系统中提供上下文性与功能性支持。

LLM Router

一个支持OpenAI协议和完整MCP服务器功能的智能路由系统,可聚合多个LLM提供商并提供动态工具执行能力

OSVM Unikernel 工具执行器

OSVM Unikernel 工具执行器是一个高性能、安全隔离的后端,专为 LLM 客户端通过 vsock 协议调用 MCP 工具而设计。

ADK MCP天气服务器

ADK框架下的一个MCP服务器示例,通过JSON-RPC协议为LLM客户端提供天气查询工具,实现上下文信息和工具功能的标准化交互。

Galaxy MCP服务器

使AI助手等客户端连接到Galaxy生物信息学平台,提供工具执行、数据管理和工作流集成能力。

AutoA2A:代理服务器生成器

快速将任何AI代理转换为A2A兼容服务器,方便与大型语言模型客户端集成。

Coputo

基于TypeScript和Fastify的MCP服务器框架,快速构建LLM上下文服务后端。

Treelang MCP服务器

Treelang是一个基于抽象语法树(AST)的功能调用框架,同时提供MCP服务器功能,支持通过LLM生成和执行复杂的工具调用工作流。

Super Agent Party

Super Agent Party 是一个将大型模型转化为智能代理的应用后端,支持知识库访问、互联网连接、MCP 服务调用、深度思考和深入研究,并通过 OpenAI API 或 Web/桌面应用进行访问。

Acurast MCP 服务器

基于 Model Context Protocol 构建的 MCP 服务器,提供访问 Acurast 资源的接口,并支持脚本部署和处理器信息查询等工具。

Paragon MCP Server

Paragon MCP Server 是 Model Context Protocol 的服务器实现,通过 Paragon ActionKit 为 LLM 客户端提供 SaaS 应用集成和工具能力。

Shell MCP

基于Bash的轻量级MCP服务器,用于通过JSON-RPC管理和执行命令行工具。

Hermes Search MCP Server

Hermes Search MCP Server 是一个基于 Model Context Protocol 的后端服务,旨在为 LLM 应用提供强大的数据搜索和索引能力,通过集成 Azure Cognitive Search,实现对结构化和非结构化数据的全文和语义搜索。

MCP实验服务器示例

基于Model Context Protocol的实验性服务器,提供工具注册和执行能力,演示了Stdio和SSE两种传输协议的应用。

Oracle数据库MCP服务器

一个基于MCP协议的服务器实现,允许LLM客户端通过工具安全地查询和管理Oracle数据库。

MCP多服务器代理系统

基于MCP协议构建的模块化系统,实现LangGraph智能体与远程工具服务器的解耦,支持实时、多服务器和可扩展的AI应用。

humanus.cpp框架

这是一个轻量级的C++框架,用于构建本地LLM Agent,集成了模型上下文协议(MCP),提供工具和记忆管理功能,可作为有效的MCP服务器实现。

Directus MCP 服务器

Directus MCP Server 是一个基于 Node.js 的 MCP 服务器,允许 AI 客户端通过 MCP 协议与 Directus CMS 进行交互,实现数据访问和功能调用。

Azure 远程 MCP 函数

基于 Azure 函数和 API 管理构建的远程 MCP 服务器,提供工具注册、执行和安全访问控制能力。

LangChainGo MCP示例服务器

基于Go语言的MCP服务器最小化示例,演示如何通过curl执行工具,并与LangChainGo集成。

Fastn MCP Server

Fastn MCP Server是一个基于MCP协议的后端服务,它允许LLM客户端通过Fastn平台动态注册和执行工具,扩展LLM的功能。

Chef CLI for ADaaS

Chef CLI 是一个用于 ADaaS 配方开发的命令行工具,同时可以作为 MCP 服务器为 LLM 客户端提供上下文服务。

Nerve Agent Server

Nerve Agent Server是一个用于运行LLM Agent并将其功能作为MCP兼容服务对外提供的平台,方便与MCP客户端集成。

Open Multi-Agent Canvas MCP Math Server

一个基于FastMCP框架实现的简单数学工具服务器,用于演示MCP服务器功能,可与Open Multi-Agent Canvas前端集成使用。

MCP Agent Army

基于 Model Context Protocol 的多智能体系统,通过专用 MCP 服务器为各领域智能体提供上下文服务。

Supabase MCP Server

基于FastMCP框架实现的Supabase MCP服务器,为LLM客户端提供数据库资源访问和管理工具。

MCP Servers

基于.NET开发的MCP服务器集合,提供文件处理、通用工具等功能,支持Stdio和SSE传输协议,为LLM应用提供上下文服务。

Radare2二进制分析MCP服务器

一个基于MCP协议的服务器,集成Radare2强大的二进制分析工具,为AI助手提供文件分析能力。

ERPNext MCP Server

连接AI助手与ERPNext的MCP服务器,提供数据访问和功能调用,实现智能ERP集成。

Archon Agenteer MCP Server

Archon Agenteer MCP Server为AI IDE提供 agent 构建能力,支持通过 Model Context Protocol (MCP) 协议与客户端通信,实现agent工具注册、执行和上下文信息管理。

Weather MCP Server Example

这是一个基于Model Context Protocol (MCP) 的天气信息服务器示例,演示了如何使用工具提供天气查询功能,并集成了synf工具实现热重载开发。

MCP-SQL:自然语言SQLite数据库接口示例

演示如何使用MCP协议构建一个允许LLM通过自然语言查询和操作SQLite数据库的MCP服务器。

Minimal MCP天气工具服务器示例 (Kotlin)

一个使用Kotlin编写的最小化MCP服务器示例,演示了如何通过天气工具与MCP客户端进行交互,实现工具注册、调用和响应的基本流程。

Deepin MCP 服务器示例

Deepin MCP 仓库包含多个示例 MCP 服务器的 Python 实现,用于演示如何构建提供工具和资源访问能力的 MCP 后端。

Open Manus

Open Manus 是一个开源框架,旨在构建类似 MCP 服务器的功能,为 AI 代理提供工具、资源和 Prompt 管理,提升企业级 AI 应用的上下文处理能力。

命令行工具 MCP 服务器

一个 Model Context Protocol (MCP) 服务器,允许大型语言模型 (LLM) 通过调用工具在服务器端执行 shell 命令。

Bhanus:MCP-vLLM集成系统

Bhanus是一个将MCP协议与vLLM集成的生产级系统,旨在高效地为LLM应用提供上下文服务和工具执行能力。

MCP SSE 示例服务器

这是一个使用 Server-Sent Events (SSE) 实现的 MCP 示例服务器,演示了工具、资源和日志记录等核心 MCP 功能。

Agents-EXE

Agents-EXE是一个用于构建和运行LLM代理的工具,通过实验性的MCP服务器将代理作为工具提供给LLM客户端。

Kakashi MCP Servers

Kakashi MCP Servers为LLM应用提供天气查询和网页文件下载工具,基于Model Context Protocol标准实现。

MCP Demo Server (Python)

基于FastMCP框架实现的Python MCP服务器示例,提供算术工具和动态问候资源,可通过SSE或Stdio协议与客户端通信。

Test SSE Server

C#实现的MCP协议SSE测试服务器,提供资源、工具和Prompt管理功能,用于验证和测试MCP客户端的连接与交互。

Odoo MCP 服务器

通过MCP协议连接AI助手与Odoo ERP系统,提供数据访问和功能调用能力。

MCP服务器示例

一个简单的MCP服务器示例,演示了资源、工具和Prompt模板的定义与使用,支持Stdio和SSE传输协议。

MCP简易示例服务器

一个简单的MCP服务器示例,展示了资源、Prompt和工具管理,支持SSE和Stdio传输。

Panaversity MCP Demo Server

基于FastMCP框架构建的演示MCP服务器,提供资源和工具管理,用于增强LLM应用上下文。

Qt MCP 服务器

Qt MCP 服务器是一个基于 Qt 框架实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具执行和 Prompt 模板处理等核心功能,用于构建模型驱动的应用后端。

示例MCP服务器

基于Model Context Protocol的示例服务器,演示了如何定义和执行工具,并通过Stdio与客户端通信,实现GitHub用户数据获取功能。

MCP示例服务集

本仓库提供了一系列基于Model Context Protocol (MCP) 的示例服务器,演示了如何构建可扩展的上下文服务后端,包括文件系统、天气、播客和邮件服务。

mcp payment example

基于Model Context Protocol的支付系统示例,演示如何构建可与AI模型集成的应用后端,提供支付处理、欺诈检测和货币汇率等功能。

MCP Server

该项目是一个MCP服务器示例,用于管理学生数据,通过资源提供学生列表,并通过工具支持学生信息的查询和添加功能。

sample mcp rails

一个简单的Ruby MCP服务器示例,提供基础的问候功能和hello-world资源。

composio mcp server

Composio MCP Server是一个实现了Model Context Protocol的服务器,它将Composio应用(如Gmail, Linear等)的功能以工具形式暴露给LLM,实现LLM对这些应用的标准化访问和控制。

offeryn

Offeryn是一个Rust实现的Model Context Protocol (MCP) 服务器,专注于通过工具扩展大型语言模型的能力,支持JSON-RPC over Stdio和SSE传输协议。

Ai platform

Ai-platform仓库实现了一个基于Model Context Protocol (MCP) 的服务器,通过标准化的JSON-RPC接口,向LLM客户端提供OpenAI的文本生成和代码分析工具。

mcp server template

一个简单的MCP服务器,用于管理文本笔记资源,支持创建笔记工具和笔记总结Prompt。

mcp client and server

一个简单的MCP服务器,用于管理笔记资源,提供笔记总结 Prompt,并提供添加、获取、列出笔记以及管理链式MCP服务器的工具。

isolated commands mcp server

一个简单的MCP服务器示例,演示了工具的注册和调用,提供了一个在隔离环境中执行命令的工具。

test python mcp server

一个简单的Python MCP服务器,用于管理笔记,允许客户端添加、总结和访问笔记资源。

mcp openai

一个简单的计算器MCP服务器示例,用于演示MCP服务器的基本功能,例如工具列表和调用。

pylon

Pylon 是一款桌面应用程序,内置 MCP 服务器,为 LLM 客户端提供资源管理、工具调用和 Prompt 模板服务,支持文件系统资源访问和 Ollama 模型集成。

mcp hello

一个简单的MCP服务器示例,演示了如何创建Markdown文件,通过模板和用户输入,展示工具注册和执行。

mcp transport auth

一个简单的MCP服务器实现,演示了基于SSE传输和基本身份验证的工具执行功能。

mcp server

mcp-server仓库实现了一个简单的MCP服务器,通过工具提供推特发文和读取Google Sheets数据的功能,并通过资源暴露Google Sheets数据,演示了MCP协议在数据访问和功能扩展方面的应用。

isolated commands mcp server

一个简单的MCP服务器,允许通过工具在隔离环境中执行本地命令。

my mcp claude

一个简单的MCP服务器,提供备忘录管理功能,包括资源化管理备忘录、通过Prompt总结备忘录以及使用工具添加备忘录,旨在与Claude等LLM客户端集成。

goai

GoAI库提供了一个灵活的MCP服务器实现,支持资源管理、工具注册、Prompt模板定义,并通过JSON-RPC协议与LLM客户端通信,构建可扩展的AI应用后端。

Beamlit

Beamlit MCP Gateway桥接Beamlit CLI与LLM客户端,通过Model Context Protocol协议,使AI模型能安全访问和利用Beamlit的功能与资源。

Command Executor

Command Executor MCP Server是一个安全的工具服务器,允许LLM客户端执行预先批准的系统命令,用于扩展LLM的功能并与外部环境交互。

Lodestar MCP

Lodestar MCP 是一个基础的MCP服务器实现,用于文档查询,提供了资源和工具的示例,展示了MCP服务器的基本结构和功能。