← 返回首页

"工具执行"标签的搜索结果

找到 149 个结果

Claude Copilot MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务器集合,提供内存管理、语义检索、知识扩展与技能加载等能力,面向 Claude Copilot 等 LLM 客户端,通过标准化的 JSON-RPC 交互向客户端提供资源、工具、提示等上下文与功能服务。

AIPartnerUpFlow MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。

n2n-memory MCP 服务器

基于 MCP 的本地内存型服务器,提供知识图谱持久化、工具执行与上下文管理,以 JSON-RPC 形式对接 LLM 客户端。

Koder MCP后端服务器实现

基于 Model Context Protocol (MCP) 的后端服务,集成资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式(stdio、SSE、HTTP)以提供可扩展的上下文服务框架。

Agents Council MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,支持多代理协同的会话管理、工具执行和提示渲染,面向 LLM 客户端提供标准化的上下文服务。

Agentic QE MCP Server

基于 Model Context Protocol 的后端服务,作为 MCP 服务器向 LLM 客户端以标准化方式提供资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多传输协议接入(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

Oh My OpenCode MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行标准化通信,支持多种传输协议与会话管理以实现安全、可扩展的上下文服务。

TemPad Dev MCP 服务器

基于模型上下文协议(MCP)的后端服务实现,提供资源管理、工具执行与提示模板渲染等能力,并通过 JSON-RPC 与客户端通信。实现了服务器端的工具注册与执行、资源导出与资产管理、以及对 Prompts/模板的支持,支持多传输协议(如标准输入/输出、SSE、WebSocket 等),用于为大模型/LLM 客户端提供标准化的上下文服务与能力暴露。

Overseerr MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 Overseerr 集成的上下文信息、工具和提示模板,通过 JSON-RPC 进行通信,并支持 STDIO、SSE/HTTP 等传输通道,便于在 AI 应用中进行资源检索、请求管理与媒体详情查询等功能的上下文服务。

MemWyre MCP 服务器端实现

MemWyre 的 MCP 服务器端实现,基于 Model Context Protocol 架构,为 LLM 客户端提供标准化的资源、工具与提示模板,并通过 JSON-RPC 风格接口与客户端通信,支持会话管理、能力声明及多传输通道的扩展能力。

Skrills MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管与访问、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 进行与 LLM 客户端的通信,支持多传输协议用于上下文服务的扩展性。

Xiaozhi ESP32 MCP 服务器(Golang 实现)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,并支持多传输协议(如 WebSocket、MQTT/UDP 等)通过 JSON-RPC 与客户端通信,面向边缘设备和物联网场景的上下文服务解决方案。

NiceVibes MCP 服务器

基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。

UDS-POS MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供标准化的资源(Resources)、工具(Tools)以及提示模板(Prompts),通过 JSON-RPC 与 LLM 客户端通信,支持多传输通道并对接 Supabase 数据源,构建面向 AI 赋能的上下文服务框架。该仓库包含一个完整的 MCP 服务器实现(含工具定义、资源暴露、提示模板以及 Prompt 执行逻辑),并以 Stdio 传输方式提供服务入口。

atlas-mcp

基于模型上下文协议(MCP)的服务器实现,向LLM客户端提供ATLAS Central Page的资源、工具与提示模板的统一访问接口,支持JSON-RPC风格请求/响应,以及多传输模式(如STDIO、HTTP)以服务化LLM上下文信息和能力查询。

CodingBuddy MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具、Prompt 的托管、读取和渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议以提供安全、可扩展的上下文服务。

Arivu MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。

MCP Mail 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染等能力,并通过 JSON-RPC 风格接口向 LLM 客户端暴露上下文与功能。服务器支持多种传输形式(HTTP)、会话管理、能力声明,以及可拓展的工具与资源生态,提升大模型在编码协作中的上下文服务能力。

ModelCypher MCP 服务器

ModelCypher MCP 服务器是一个基于 Model Context Protocol 的后端服务,提供资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明及多传输协议。

Workstation MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源(Resources)托管与数据访问、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC/WebSocket 等通道与 LLM 客户端进行标准化上下文服务交互。

AnkiMCP 服务端(MCP 后端实现)

基于模型上下文协议(MCP)的后端实现,将 Anki 收藏数据作为资源对外暴露,支持注册并执行工具、通过 JSON-RPC 风格的接口与客户端交互,提供权限控制和多种传输方式(如 STDIO、HTTP 等),为大语言模型助手提供可扩展的上下文服务能力。

Memory Library MCP Server

基于 Memory Library 的 MCP 服务器实现,为大语言模型客户端提供统一的上下文、工具、资源和提示,支持通过 JSON-RPC 进行交互,并可扩展的向量检索与嵌入管理能力。

MCP 服务器实现学习与示例

基于 Model Context Protocol (MCP) 的服务器端实现示例,展示如何通过 JSON-RPC 提供资源管理、工具执行与 Prompt 模板渲染等核心能力,并支持通过标准输入输出 (stdio) 的传输模式与客户端进行通信,适合作为学习和实验用途的 MCP 服务器实现。

Edda MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现(集成于 Edda 框架),通过 JSON-RPC/多传输协议向 LLM 客户端暴露 durable workflows、资源和工具,并支持 Prompts 渲染,方便 AI 助手与后端工作流进行长期上下文交互和功能调用。

MCP SQL Server Backend

基于 Model Context Protocol (MCP) 的后端服务器,实现对 Microsoft SQL Server 的只读资源访问、工具执行与提示模板渲染,支持 JSON-RPC 风格的请求/响应,供 LLM 客户端在对话中获得上下文信息与外部功能。

Apply Task MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持 TUI/GUI 与 AI 助手的集成使用。

TPM-MCP 本地服务器

基于 Model Context Protocol 的本地 MCP 服务器实现,提供资源、工具和提示渲染等能力,供本地 LLM 客户端通过 JSON-RPC 方式访问并管理项目数据(包含会话、能力声明、以及多传输协议支持)。

Singular Blockly Model Context Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供可管理的资源、可注册的工具和可渲染的 Prompt 模板,通过 JSON-RPC 进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明等功能。

ai-infra MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式提供资源管理、工具注册/执行以及 Prompt 模板渲染等上下文服务,支持会话管理、能力声明与多传输协议(如 stdio、SSE、WebSocket),旨在为 LLM 应用提供可扩展、安全的上下文服务能力。

MCP Nim SDK 服务器实现

基于 Nim 的 MCP 服务器实现,提供资源、工具、提示模板等管理,支持多种传输协议(stdio、SSE、HTTP/Streamable、InMemory),并通过 JSON-RPC 与客户端进行请求与响应通信。

DevTeam6 MCP 服务器集

基于 Model Context Protocol (MCP) 的后端服务器实现集合,提供 Resources 的托管与管理、Tools 的注册与执行,以及可扩展的提示模板/交互能力,并通过标准化的 JSON-RPC 风格接口与 LLM 客户端进行通信,支持会话管理与多种传输场景。当前实现包括 MemoryMCPServer 与 RAGMCPServer 等服务器骨架,可作为 MCP 客户端对接的后端服务端。

Dec MCP Server 实现

一个基于 MCP 的后端服务器实现,提供 JSON-RPC 2.0 的初始化、工具列表与工具执行等核心接口,并通过标准输入输出与客户端通信,支持在本地运行、生成并管理 MCP 配置与规则输出。

AI-Infra-Guard MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)管理、工具(Tools)注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 与 LLM 客户端进行通信,支持多种传输通道(如 SSE、StdIO、WebSocket),为大语言模型应用提供标准化的上下文与能力服务。

Polar MCP 服务器桥接

基于模型上下文协议(MCP)的服务器实现组件,作为 Polar 电子应用的一部分,提供工具定义查询、工具执行与健康检查等核心接口,通过 HTTP 端点与客户端通信,并通过 Electron 渲染进程 IPC 与后台工具 definition/执行能力对接,从而向 LLM 客户端暴露资源、工具与提示渲染能力。

Computer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。

Context Finder MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等能力,并通过 MCP JSON-RPC 与客户端通信。该仓库实现了完整的 MCP 服务端逻辑、工具集合和向量存储等组件,支持通过多种传输方式(如 stdio、HTTP、gRPC 等)向 LLM 客户端提供结构化的上下文服务和功能。

GitHub MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供对 GitHub 的上下文资源、工具执行与提示模板的标准化访问,支持 JSON-RPC 交互,适配多种传输方式并具备会话管理、能力声明与远程工具发现等能力,用于为大语言模型提供可扩展的上下文服务。

MonicaHQ MCP Server

基于 Model Context Protocol 的 MCP 服务器,使用 Spring Boot 实现,提供 MonicaHQ CRM 数据的资源访问、工具调用及内容渲染,支持 STDIO 与 WebSocket/HTTP 等传输模式,面向大语言模型客户端(如 Claude Desktop)提供标准化的上下文服务。该服务器实现了资源管理、工具注册与执行,以及提示模板渲染等核心能力,以 JSON-RPC 2.0 进行通信。

ESP-MCP over MQTT – ESP32 的 MCP 服务器实现

基于 MCP(Model Context Protocol)在 ESP32/ESP-IDF 上实现的 MQTT 传输 MCP 服务器,提供资源管理、工具注册与调用、以及 Prompt/模板支持,利用 JSON-RPC 与客户端通信,适用于边缘设备上的上下文与能力服务。

Cognia MCP 服务端实现

基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。

AstroFusion Design System MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染,使用 JSON-RPC 与客户端通信,当前实现通过标准输入输出传输(Stdio)提供 MCP 服务并暴露设计系统的令牌、组件规则与提示内容。

mcpkit

基于 Model Context Protocol (MCP) 的服务器端实现框架,提供资源、工具、提示的托管、注册、路由与多传输支持,面向 LLM 客户端的上下文服务。

GPT4Free MCP 服务器

基于 Model Context Protocol (MCP) 的多模型上下文服务后端,向 LLM 客户端提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持会话管理并兼容多种传输协议(STDIO/SSE/WebSocket),为 AI 应用提供可扩展、安全的上下文服务框架。

AdCP Sales Agent MCP Server

基于模型上下文协议(Model Context Protocol, MCP)的后端服务器,向大型语言模型(LLM)客户端以标准化方式提供资源数据、工具执行能力和可渲染的提示模板,支持多租户、会话管理以及通过 JSON-RPC 与客户端通信的上下文服务框架,适用于广告投放场景的自动化协作与执行。

WeKnora MCP 服务端

基于 WeKnora 的 MCP(Model Context Protocol)服务器实现,向大模型客户端提供标准化的资源、工具与提示模板的上下文服务,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,用于实现安全、可扩展的上下文环境。该服务器通过 JSON-RPC 与客户端进行通信,承载资源访问、工具注册/执行与提示渲染等核心能力。典型场景包括对接外部知识库、执行工具调用、以及渲染与提供定制化的 Prompt 模板。

Fred MCP 服务器实现套件

基于 Fred 平台的 MCP 服务器实现,提供以标准化方式向大语言模型客户端提供资源、工具、提示模板等上下文与能力的后端服务,并通过 JSON-RPC/多传输通道进行通信。包含知识流后端的完整 MCP 服务、以及用于快速演示的最小 MCP 服务器示例和相应部署示例。

Claude Code Workflow MCP 服务器

基于 Claude Code Workflow 的 MCP 服务器实现,使用 JSON-RPC 与客户端通信,核心职责是托管资源、注册工具、定义并渲染 Prompt 模板,为 LLM 客户端提供可扩展的上下文服务。

MCP Guard 安全网关

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板定义与渲染等核心能力,并通过 JSON-RPC 与客户端通信;内置认证、授权、速率限制、观测与审计等安全特性,支持多传输协议(Stdio、HTTP、SSE)以及多服务器路由场景,能为 LLM 客户端提供安全、可扩展的上下文服务框架。

Concierge MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册/执行、Prompt 模板渲染,并通过 MCP/JSON-RPC 进行客户端交互,支持会话管理与跨协议传输,面向 LLM 客户端提供可扩展的上下文服务框架。

Fastly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并可在 stdio、HTTP(含 SSE)等传输模式下运行,具备会话管理、能力声明和安全保护机制。

Opencode MCP 语义上下文服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于向 LLM 客户端提供持久化记忆、工具执行和 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持内存资源管理、工具注册/执行、Prompt 渲染,以及会话管理,具备本地向量检索、离线嵌入和多种传输能力的服务端实现。

docsearch-mcp

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供资源访问、工具调用和提示模板的统一上下文服务,支持文档索引、向量检索、以及与 Claude Code 等 MCP 客户端的无缝集成。

Claude Sessions MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现 Claude Code 会话的资源管理、工具执行与提示渲染,提供统一的上下文服务给 LLM 客户端,采用 JSON-RPC 进行交互,支持多传输方式并完成会话、资源、工具等能力的托管与管理。

Sunpeak MCP 服务器端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具调用以及资源渲染的服务端能力,并通过 JSON-RPC/ SSE 方式与客户端通信,支持多会话与会话管理,适用于在后端向 LLM 客户端提供可扩展的上下文服务。

HealthSim MCP Server

基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。

Krolik MCP 服务器(Claude Code 集成)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管与管理、工具注册/执行,以及提示模板的定义与渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议的上下文服务框架。

narsil-mcp

基于 Model Context Protocol (MCP) 的高性能本地后端服务器实现,提供资源管理、工具注册与执行、以及基于模板的 Prompt 渲染,支持 JSON-RPC 标准交互、会话管理和多传输协议(如 STDIO、SSE、WebSocket),用于本地化的代码上下文理解与分析场景。内置多语言代码解析、符号与引用检索、调用图与安全分析等工具集,面向离线/隐私安全的 LLM 客户端提供丰富上下文服务。

LDAP Assistant MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 LDAP 目录服务的资源管理、工具执行与提示模板渲染能力,使用 FastMCP 与客户端进行 JSON-RPC 风格的通信,支持多服务器配置、会话管理以及多种传输方式(以 STDIO 为初始实现)。

Reachy 身体控制 MCP 服务器

基于 Model Context Protocol (MCP) 的 Reachy Mini 机器人身体控制服务器实现,暴露23个可通过 MCP 客户端调用的工具,并通过 Reachy Daemon(实际硬件或 MuJoCo 仿真)实现对头部、天线、表情、捕获等操作,支持动态工具发现、权限控制和审计日志等能力。

GTM Wizard MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 AI 代理提供资源、工具、提示等上下文服务,并通过 JSON-RPC 与客户端交互,支持资源管理、工具执行与提示渲染等核心能力。

Super AI Plugin Hub

基于 Model Context Protocol (MCP) 的服务器端框架,聚合、管理资源与工具,并通过 JSON-RPC 将上下文、工具与提示暴露给 LLM 客户端,同时支持本地与远程 MCP 服务器的代理与协作。

mcp-agent-builder-go

基于Go实现的MCP后端服务器,提供资源管理、工具注册与执行、提示模板渲染,以及面向多MCP服务器的上下文服务框架;通过多协议通信(HTTP/SSE/stdio 等)与LLM客户端协同工作,支持任务编排、工具调用、以及会话级别的上下文管理。该仓库不仅包含服务端实现,还包含用于工具、客户端以及前端的相关组件与示例,目标是构建一个可扩展的MCP服务器生态。通过统一的接口实现资源、工具、提示模板的托管、注册与执行。

OOREP MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理、工具注册与执行、以及提示模板渲染,向大语言模型客户端提供可扩展且结构化的上下文服务与数据访问能力。

NetMCP

基于 Model Context Protocol 的 MCP 服务器实现,用于作为后端上下文服务向大语言模型客户端提供资源管理、工具执行和提示模板渲染等能力,支持通过 JSON-RPC 方式与客户端交互并管理会话与安全策略。

LiveKit Agents MCP Server

基于 LiveKit Agents 框架的 MCP(Model Context Protocol)服务器实现与示例,提供资源、工具与提示模板的托管与暴露,支持 JSON-RPC 风格的通信以及多传输协议(如 SSE/WebSocket/StdIO)以供 LLM 客户端访问上下文信息和外部功能。

Lunar MCP Server Kit

基于 Model Context Protocol(MCP)的后端服务器实现示例,提供资源/工具管理、工具执行以及面向 LLM 的上下文渲染能力,展示了如何用 MCPX 服务器核心实现 JSON-RPC 风格的请求/响应,并支持多种传输方式(如标准输入输出、SSE、HTTP 流等)。

MCP Framework - Rust MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器端实现,提供工具、资源、提示的注册与执行,并通过 JSON-RPC 与客户端进行通信,支持多传输方式(HTTP、stdio、Inspector 调试)以为大语言模型提供可扩展的上下文与功能服务。

MCP Outlet – 通用 MCP 服务器运行时与沙箱代理

基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*

Chronicle MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的注册与渲染,通过 JSON-RPC 与 AI 客户端进行交互,支持以标准输入输出(StdIO)传输的通信方式,为 LLM 应用提供可扩展的上下文服务框架。

Memo MCP 服务端实现

一个基于 Charm KV 存储的 MCP 服务器实现,提供资源、工具、和提示模板等功能,供对话式 AI 客户端通过 JSON-RPC 与后台进行上下文交互与操作执行。当前实现通过标准输入输出(stdio)传输进行 JSON-RPC 的通信。

ChatGPT App MCP Server (SSE) - Node.js 实现

基于 Model Context Protocol (MCP) 的服务端实现,使用 SSE 传输,提供资源与资源模板的托管、工具注册与执行,以及嵌入式 Widget 的渲染能力,作为 ChatGPT 应用的上下文与功能后端。

YouTube Content Agency MCP 后端集合

基于模型上下文协议(MCP)的后端服务器集合,提供对资源、工具和提示模板的托管与执行,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多种传输方式,适用于为大语言模型(LLM)客户端提供上下文与功能服务的后端架构。仓库内包含 Python 与 TypeScript 实现的多个 MCP 服务器实例及客户端示例,覆盖新闻、YouTube 工具箱、Notion 驱动的框架资源等场景。

Code Guardian MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议接入。

OCTAVE MCP Server

基于 Model Context Protocol(MCP)的后端实现,提供对 OCTAVE 文档协议的标准化上下文服务。通过注册的工具集向 LLM 客户端暴露资源访问、外部功能调用能力,并提供对话上下文的可控渲染能力;使用 JSON-RPC 风格的通信,当前通过标准输入输出(stdio)进行交互,具备会话管理和能力声明等核心能力。

Strudel MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,面向 Strudel 音乐助手,提供资源管理、工具执行与提示模板等上下文信息,通过 JSON-RPC 与 LLM 客户端进行交互,并支持基于文件系统的存储与扩展工具集。

ContextStream MCP Server

基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,提供资源托管、工具执行、提示模板渲染,以及与大模型客户端的 JSON-RPC 通信,支持会话管理、能力声明和多种传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供安全、可扩展的上下文服务。该仓库不仅包含服务器核心逻辑,还实现了资源、工具、会话初始化、自动上下文注入等关键能力的模块化实现。

Stock Master MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供资源、工具与模板等上下文服务,基于 JSON-RPC 通信,支持会话管理、能力声明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)与客户端对接,面向股票分析与量化交易场景的统一上下文服务框架。

AgentPool MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板的渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明及多传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

Trinity MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具、提示以及跨代理协作的标准化上下文服务,支持多传输协议、会话与权限管理、以及多代理系统的编排能力。

Cortex Memory MCP Server

基于模型上下文协议(MCP)的服务器实现,提供内存管理、工具注册/执行和提示模板的后端服务,通过 JSON-RPC 与 LLM 客户端进行通信,支持与各种后端组件协同工作,便于在代理代理的对话系统中提供上下文性与功能性支持。

LLM Router

一个支持OpenAI协议和完整MCP服务器功能的智能路由系统,可聚合多个LLM提供商并提供动态工具执行能力

OSVM Unikernel 工具执行器

OSVM Unikernel 工具执行器是一个高性能、安全隔离的后端,专为 LLM 客户端通过 vsock 协议调用 MCP 工具而设计。

ADK MCP天气服务器

ADK框架下的一个MCP服务器示例,通过JSON-RPC协议为LLM客户端提供天气查询工具,实现上下文信息和工具功能的标准化交互。

Galaxy MCP服务器

使AI助手等客户端连接到Galaxy生物信息学平台,提供工具执行、数据管理和工作流集成能力。

AutoA2A:代理服务器生成器

快速将任何AI代理转换为A2A兼容服务器,方便与大型语言模型客户端集成。

Coputo

基于TypeScript和Fastify的MCP服务器框架,快速构建LLM上下文服务后端。

Treelang MCP服务器

Treelang是一个基于抽象语法树(AST)的功能调用框架,同时提供MCP服务器功能,支持通过LLM生成和执行复杂的工具调用工作流。

Super Agent Party

Super Agent Party 是一个将大型模型转化为智能代理的应用后端,支持知识库访问、互联网连接、MCP 服务调用、深度思考和深入研究,并通过 OpenAI API 或 Web/桌面应用进行访问。

Acurast MCP 服务器

基于 Model Context Protocol 构建的 MCP 服务器,提供访问 Acurast 资源的接口,并支持脚本部署和处理器信息查询等工具。

Paragon MCP Server

Paragon MCP Server 是 Model Context Protocol 的服务器实现,通过 Paragon ActionKit 为 LLM 客户端提供 SaaS 应用集成和工具能力。

Shell MCP

基于Bash的轻量级MCP服务器,用于通过JSON-RPC管理和执行命令行工具。

Hermes Search MCP Server

Hermes Search MCP Server 是一个基于 Model Context Protocol 的后端服务,旨在为 LLM 应用提供强大的数据搜索和索引能力,通过集成 Azure Cognitive Search,实现对结构化和非结构化数据的全文和语义搜索。

MCP实验服务器示例

基于Model Context Protocol的实验性服务器,提供工具注册和执行能力,演示了Stdio和SSE两种传输协议的应用。

Oracle数据库MCP服务器

一个基于MCP协议的服务器实现,允许LLM客户端通过工具安全地查询和管理Oracle数据库。

MCP多服务器代理系统

基于MCP协议构建的模块化系统,实现LangGraph智能体与远程工具服务器的解耦,支持实时、多服务器和可扩展的AI应用。

humanus.cpp框架

这是一个轻量级的C++框架,用于构建本地LLM Agent,集成了模型上下文协议(MCP),提供工具和记忆管理功能,可作为有效的MCP服务器实现。

Directus MCP 服务器

Directus MCP Server 是一个基于 Node.js 的 MCP 服务器,允许 AI 客户端通过 MCP 协议与 Directus CMS 进行交互,实现数据访问和功能调用。

Azure 远程 MCP 函数

基于 Azure 函数和 API 管理构建的远程 MCP 服务器,提供工具注册、执行和安全访问控制能力。

LangChainGo MCP示例服务器

基于Go语言的MCP服务器最小化示例,演示如何通过curl执行工具,并与LangChainGo集成。

Fastn MCP Server

Fastn MCP Server是一个基于MCP协议的后端服务,它允许LLM客户端通过Fastn平台动态注册和执行工具,扩展LLM的功能。

Chef CLI for ADaaS

Chef CLI 是一个用于 ADaaS 配方开发的命令行工具,同时可以作为 MCP 服务器为 LLM 客户端提供上下文服务。

Nerve Agent Server

Nerve Agent Server是一个用于运行LLM Agent并将其功能作为MCP兼容服务对外提供的平台,方便与MCP客户端集成。

Open Multi-Agent Canvas MCP Math Server

一个基于FastMCP框架实现的简单数学工具服务器,用于演示MCP服务器功能,可与Open Multi-Agent Canvas前端集成使用。

MCP Agent Army

基于 Model Context Protocol 的多智能体系统,通过专用 MCP 服务器为各领域智能体提供上下文服务。

Supabase MCP Server

基于FastMCP框架实现的Supabase MCP服务器,为LLM客户端提供数据库资源访问和管理工具。

MCP Servers

基于.NET开发的MCP服务器集合,提供文件处理、通用工具等功能,支持Stdio和SSE传输协议,为LLM应用提供上下文服务。

Radare2二进制分析MCP服务器

一个基于MCP协议的服务器,集成Radare2强大的二进制分析工具,为AI助手提供文件分析能力。

ERPNext MCP Server

连接AI助手与ERPNext的MCP服务器,提供数据访问和功能调用,实现智能ERP集成。

Archon Agenteer MCP Server

Archon Agenteer MCP Server为AI IDE提供 agent 构建能力,支持通过 Model Context Protocol (MCP) 协议与客户端通信,实现agent工具注册、执行和上下文信息管理。

Weather MCP Server Example

这是一个基于Model Context Protocol (MCP) 的天气信息服务器示例,演示了如何使用工具提供天气查询功能,并集成了synf工具实现热重载开发。

MCP-SQL:自然语言SQLite数据库接口示例

演示如何使用MCP协议构建一个允许LLM通过自然语言查询和操作SQLite数据库的MCP服务器。

Minimal MCP天气工具服务器示例 (Kotlin)

一个使用Kotlin编写的最小化MCP服务器示例,演示了如何通过天气工具与MCP客户端进行交互,实现工具注册、调用和响应的基本流程。

Deepin MCP 服务器示例

Deepin MCP 仓库包含多个示例 MCP 服务器的 Python 实现,用于演示如何构建提供工具和资源访问能力的 MCP 后端。

Open Manus

Open Manus 是一个开源框架,旨在构建类似 MCP 服务器的功能,为 AI 代理提供工具、资源和 Prompt 管理,提升企业级 AI 应用的上下文处理能力。

命令行工具 MCP 服务器

一个 Model Context Protocol (MCP) 服务器,允许大型语言模型 (LLM) 通过调用工具在服务器端执行 shell 命令。

Bhanus:MCP-vLLM集成系统

Bhanus是一个将MCP协议与vLLM集成的生产级系统,旨在高效地为LLM应用提供上下文服务和工具执行能力。

MCP SSE 示例服务器

这是一个使用 Server-Sent Events (SSE) 实现的 MCP 示例服务器,演示了工具、资源和日志记录等核心 MCP 功能。

Agents-EXE

Agents-EXE是一个用于构建和运行LLM代理的工具,通过实验性的MCP服务器将代理作为工具提供给LLM客户端。

Kakashi MCP Servers

Kakashi MCP Servers为LLM应用提供天气查询和网页文件下载工具,基于Model Context Protocol标准实现。

MCP Demo Server (Python)

基于FastMCP框架实现的Python MCP服务器示例,提供算术工具和动态问候资源,可通过SSE或Stdio协议与客户端通信。

Test SSE Server

C#实现的MCP协议SSE测试服务器,提供资源、工具和Prompt管理功能,用于验证和测试MCP客户端的连接与交互。

Odoo MCP 服务器

通过MCP协议连接AI助手与Odoo ERP系统,提供数据访问和功能调用能力。

MCP服务器示例

一个简单的MCP服务器示例,演示了资源、工具和Prompt模板的定义与使用,支持Stdio和SSE传输协议。

MCP简易示例服务器

一个简单的MCP服务器示例,展示了资源、Prompt和工具管理,支持SSE和Stdio传输。

Panaversity MCP Demo Server

基于FastMCP框架构建的演示MCP服务器,提供资源和工具管理,用于增强LLM应用上下文。

Qt MCP 服务器

Qt MCP 服务器是一个基于 Qt 框架实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具执行和 Prompt 模板处理等核心功能,用于构建模型驱动的应用后端。

示例MCP服务器

基于Model Context Protocol的示例服务器,演示了如何定义和执行工具,并通过Stdio与客户端通信,实现GitHub用户数据获取功能。

MCP示例服务集

本仓库提供了一系列基于Model Context Protocol (MCP) 的示例服务器,演示了如何构建可扩展的上下文服务后端,包括文件系统、天气、播客和邮件服务。

mcp payment example

基于Model Context Protocol的支付系统示例,演示如何构建可与AI模型集成的应用后端,提供支付处理、欺诈检测和货币汇率等功能。

MCP Server

该项目是一个MCP服务器示例,用于管理学生数据,通过资源提供学生列表,并通过工具支持学生信息的查询和添加功能。

sample mcp rails

一个简单的Ruby MCP服务器示例,提供基础的问候功能和hello-world资源。

composio mcp server

Composio MCP Server是一个实现了Model Context Protocol的服务器,它将Composio应用(如Gmail, Linear等)的功能以工具形式暴露给LLM,实现LLM对这些应用的标准化访问和控制。

offeryn

Offeryn是一个Rust实现的Model Context Protocol (MCP) 服务器,专注于通过工具扩展大型语言模型的能力,支持JSON-RPC over Stdio和SSE传输协议。

Ai platform

Ai-platform仓库实现了一个基于Model Context Protocol (MCP) 的服务器,通过标准化的JSON-RPC接口,向LLM客户端提供OpenAI的文本生成和代码分析工具。

mcp server template

一个简单的MCP服务器,用于管理文本笔记资源,支持创建笔记工具和笔记总结Prompt。

mcp client and server

一个简单的MCP服务器,用于管理笔记资源,提供笔记总结 Prompt,并提供添加、获取、列出笔记以及管理链式MCP服务器的工具。

isolated commands mcp server

一个简单的MCP服务器示例,演示了工具的注册和调用,提供了一个在隔离环境中执行命令的工具。

test python mcp server

一个简单的Python MCP服务器,用于管理笔记,允许客户端添加、总结和访问笔记资源。

mcp openai

一个简单的计算器MCP服务器示例,用于演示MCP服务器的基本功能,例如工具列表和调用。

pylon

Pylon 是一款桌面应用程序,内置 MCP 服务器,为 LLM 客户端提供资源管理、工具调用和 Prompt 模板服务,支持文件系统资源访问和 Ollama 模型集成。

mcp hello

一个简单的MCP服务器示例,演示了如何创建Markdown文件,通过模板和用户输入,展示工具注册和执行。

mcp transport auth

一个简单的MCP服务器实现,演示了基于SSE传输和基本身份验证的工具执行功能。

mcp server

mcp-server仓库实现了一个简单的MCP服务器,通过工具提供推特发文和读取Google Sheets数据的功能,并通过资源暴露Google Sheets数据,演示了MCP协议在数据访问和功能扩展方面的应用。

isolated commands mcp server

一个简单的MCP服务器,允许通过工具在隔离环境中执行本地命令。

my mcp claude

一个简单的MCP服务器,提供备忘录管理功能,包括资源化管理备忘录、通过Prompt总结备忘录以及使用工具添加备忘录,旨在与Claude等LLM客户端集成。

goai

GoAI库提供了一个灵活的MCP服务器实现,支持资源管理、工具注册、Prompt模板定义,并通过JSON-RPC协议与LLM客户端通信,构建可扩展的AI应用后端。

Beamlit

Beamlit MCP Gateway桥接Beamlit CLI与LLM客户端,通过Model Context Protocol协议,使AI模型能安全访问和利用Beamlit的功能与资源。

Command Executor

Command Executor MCP Server是一个安全的工具服务器,允许LLM客户端执行预先批准的系统命令,用于扩展LLM的功能并与外部环境交互。

Lodestar MCP

Lodestar MCP 是一个基础的MCP服务器实现,用于文档查询,提供了资源和工具的示例,展示了MCP服务器的基本结构和功能。