← 返回首页

"模型上下文协议"标签的搜索结果

找到 64 个结果

MCPProxy-Go 服务端实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源与工具的托管与管理、提示模板渲染、以及对外部 MCP 客户端的工具注册与执行能力;同时内置认证、秘密管理、Docker 隔离等安全与扩展特性,支持多传输协议(HTTP/SSE、stdio、WebSocket 等)并通过 JSON-RPC 与客户端通信,形成面向 LLM 场景的上下文服务框架。

PyOMOP MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供对 OMOP CDM 数据库的资源、工具与 Prompt 的标准化暴露,并通过 JSON-RPC/TCP/HTTP 等传输方式与 LLM 客户端进行交互。该实现包含服务器端工具、提示、示例查询及 SQL 执行能力,支持本地 Stdio 以及 HTTP 传输。

FluidMCP

基于 Model Context Protocol 的多 MCP 服务器后端网关,提供统一的 JSON-RPC 服务来托管资源、注册工具并渲染提示模板,通过 FastAPI 将多个独立 MCP 服务器整合为一个可扩展的上下文服务入口。

Agentic QE MCP Server

基于 Model Context Protocol 的后端服务,作为 MCP 服务器向 LLM 客户端以标准化方式提供资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多传输协议接入(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

Sentinel — MCP 流量透传与观测代理

基于 Model Context Protocol (MCP) 的观测型后端代理,作为 MCP 客户端与服务器之间的透明中间件,实现对 JSON-RPC 请求/响应的零拷贝透传,同时提供实时可视化、历史日志与可选的审计签名能力,帮助开发者在不干预执行的前提下对工具链进行观测和回放。

Oh My OpenCode MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行标准化通信,支持多种传输协议与会话管理以实现安全、可扩展的上下文服务。

TemPad Dev MCP 服务器

基于模型上下文协议(MCP)的后端服务实现,提供资源管理、工具执行与提示模板渲染等能力,并通过 JSON-RPC 与客户端通信。实现了服务器端的工具注册与执行、资源导出与资产管理、以及对 Prompts/模板的支持,支持多传输协议(如标准输入/输出、SSE、WebSocket 等),用于为大模型/LLM 客户端提供标准化的上下文服务与能力暴露。

Rogue-基于模型上下文协议的MCP服务器示例

基于模型上下文协议(Model Context Protocol,MCP)的后端示例,封装 Shirtify 代理并通过send_message工具向MCP客户端提供上下文对话能力与外部功能调用,支持 SSE/streamable_http 等传输模式的JSON-RPC风格交互。

Rosetta Ruchy MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供翻译、分析与能力声明等核心服务,通过标准化接口向多语言客户端提供资源访问、工具执行与 Prompt 模板相关能力,并以 JSON-RPC 风格的 API 与客户端交互,具备会话管理、能力声明、以及可扩展的传输与部署方式,适配代码翻译及形式化验证等后续扩展场景。

Trusted MCP 伺服端(AICC Trusted MCP)

基于 Model Context Protocol (MCP) 的可信服务端实现,提供资源、工具注册与执行、以及提示模板渲染等核心能力,支持端到端安全传输并可通过多种传输方式与客户端对话。该实现包含服务器逻辑、信任机制整合、以及面向 MCP 客户端的安全传输客户端接口。

Xiaozhi ESP32 MCP 服务器(Golang 实现)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,并支持多传输协议(如 WebSocket、MQTT/UDP 等)通过 JSON-RPC 与客户端通信,面向边缘设备和物联网场景的上下文服务解决方案。

OpenMemory MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。

Daisy Days MCP 服务端

基于 Model Context Protocol 的 MCP 后端服务器,实现资源与工具的管理,并通过 JSON-RPC 接口与 LLM 客户端进行交互,支持多工具与内容生成功能。

tmcp-MCP服务器实现

基于模型上下文协议(MCP)的 Rust 实现,提供服务器端与客户端的完整 MCP 功能,包括资源、工具、提示的托管与管理,以及通过 JSON-RPC 的请求/响应处理,支持多传输通道(stdio、TCP、HTTP SSE)与会话管理,面向在 AI 应用中提供上下文与功能的后端服务。

atlas-mcp

基于模型上下文协议(MCP)的服务器实现,向LLM客户端提供ATLAS Central Page的资源、工具与提示模板的统一访问接口,支持JSON-RPC风格请求/响应,以及多传输模式(如STDIO、HTTP)以服务化LLM上下文信息和能力查询。

Klondike MCP Server(Klondike Spec CLI)

基于模型上下文协议(MCP)的后端实现,向 MCP 客户端暴露 Klondike Spec 的资源、工具和提示模板等能力,并通过 JSON-RPC 形式处理请求与响应,支持多传输协议用于与大型语言模型的无缝对接。

Gobby MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器框架,提供资源与工具管理、提示模板,以及通过 JSON-RPC/HTTP/WebSocket 等协议与客户端交互的上下文服务能力。

MCP 服务器实现学习与示例

基于 Model Context Protocol (MCP) 的服务器端实现示例,展示如何通过 JSON-RPC 提供资源管理、工具执行与 Prompt 模板渲染等核心能力,并支持通过标准输入输出 (stdio) 的传输模式与客户端进行通信,适合作为学习和实验用途的 MCP 服务器实现。

claudemem MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 Claude Code 客户端以标准化方式提供资源管理、工具注册与执行、以及提示模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并提供本地/云模型的嵌入索引、检索与分析能力。该仓库实现了完整的 MCP 服务器端逻辑与相关工具集成,而不仅仅是客户端示例。

DevTeam6 MCP 服务器集

基于 Model Context Protocol (MCP) 的后端服务器实现集合,提供 Resources 的托管与管理、Tools 的注册与执行,以及可扩展的提示模板/交互能力,并通过标准化的 JSON-RPC 风格接口与 LLM 客户端进行通信,支持会话管理与多种传输场景。当前实现包括 MemoryMCPServer 与 RAGMCPServer 等服务器骨架,可作为 MCP 客户端对接的后端服务端。

AI-Infra-Guard MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)管理、工具(Tools)注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 与 LLM 客户端进行通信,支持多种传输通道(如 SSE、StdIO、WebSocket),为大语言模型应用提供标准化的上下文与能力服务。

Polar MCP 服务器桥接

基于模型上下文协议(MCP)的服务器实现组件,作为 Polar 电子应用的一部分,提供工具定义查询、工具执行与健康检查等核心接口,通过 HTTP 端点与客户端通信,并通过 Electron 渲染进程 IPC 与后台工具 definition/执行能力对接,从而向 LLM 客户端暴露资源、工具与提示渲染能力。

PraisonAI MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket)以为 LLM 客户端提供可扩展的上下文服务框架。

Aspose MCP Server

基于模型上下文协议(MCP)的后端服务器实现,向大型语言模型(LLM)客户端提供统一的资源/工具/提示模板等上下文服务,通过 JSON-RPC 进行通信,并支持多传输协议与会话管理,内置 Word/Excel/PPT/PDF 等办公文档处理能力的托管实现。

Tactus MCP 服务端实现

基于模型上下文协议(MCP)的服务器端实现,面向后端提供统一的资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染。通过 JSON-RPC 与客户端通信,支持会话管理、能力申明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)实现安全、可扩展的上下文服务,方便 LLM 客户端调取资源、执行工具与获取定制的 Prompt。该仓库明确包含 MCP 相关的服务端实现与集成能力。

MonicaHQ MCP Server

基于 Model Context Protocol 的 MCP 服务器,使用 Spring Boot 实现,提供 MonicaHQ CRM 数据的资源访问、工具调用及内容渲染,支持 STDIO 与 WebSocket/HTTP 等传输模式,面向大语言模型客户端(如 Claude Desktop)提供标准化的上下文服务。该服务器实现了资源管理、工具注册与执行,以及提示模板渲染等核心能力,以 JSON-RPC 2.0 进行通信。

365DaysOfData MCP 服务器(From Scratch)

基于模型上下文协议(MCP)的后端实现示例,包含可运行的 MCP 服务器代码、工具/资源注册以及简单的 Prompt 管理能力,能够通过标准化的 JSON-RPC 方式与客户端交互。

Brave Search MCP Server Suite

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的标准化管理与执行,并通过 JSON-RPC 与客户端进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket/HTTP)以实现对本地资源、外部能力和交互场景的可扩展上下文服务。

Myceliumail MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向 MCP 客户端提供标准化的资源访问、工具执行和 Prompt 模板渲染等能力,支持多传输协议和会话管理,适配 Claude Desktop 等 MCP 客户端的上下文服务需求。

Cursor Engineering Rules MCP 服务端

基于模型上下文协议(MCP)的服务器实现,提供对 Cursor 规则、工具调用和工作流指南的标准化上下文服务,便于与LLM客户端集成与扩展。

Toonify MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供将结构化数据转换为 TOON 格式以实现显著的令牌节省,并对接 Claude Code 插件与 MCP 客户端,暴露工具调用与资源访问能力,支持通过标准输入输出(stdio)进行通信与会话管理,同时内部集成本地统计指标。

Krolik MCP 服务器(Claude Code 集成)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管与管理、工具注册/执行,以及提示模板的定义与渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议的上下文服务框架。

mcp-server-starter

一个基于 Model Context Protocol 的最小可运行服务器实现,使用 stdio 传输,与客户端通过 JSON-RPC 进行交互,公开一个简单的 hello 工具,便于开发者快速上手 MCP 服务端开发。

YakShaver MCP Server (Desktop Electron 后端)

基于模型上下文协议(MCP)的后端实现,作为 YakShaver 桌面应用的服务端,负责托管与管理内部 MCP 服务器、注册与执行工具,以及定义与渲染提示模板,通过 JSON-RPC 进行与 LLM 客户端的标准化通信,提供安全、可扩展的上下文服务框架。

CC-Switch MCP 服务器实现

基于模型上下文协议(MCP)的服务器端实现,提供资源托管、工具注册/执行以及 Prompts 定义与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式并具备会话管理与跨应用的 MCP 服务器管理能力。

Sub Bridge MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,提供资源管理、工具注册与执行、以及 Prompts 定义与渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行通信,同时集成对 OpenAI/Claude API 的代理访问能力,面向 Cursor 等前端实现上下文服务。

Jenkins MCP Server Plugin

基于 Model Context Protocol (MCP) 的 Jenkins 服务端实现,提供对外暴露的工具、资源与提示等上下文能力,支持通过 JSON-RPC 进行通信,包含 SSE、流式等传输端点以及对 Jenkins 实例的会话与能力声明管理。

BrowserWing MCP 服务器

基于模型上下文协议(MCP)的后端服务器,提供 MCP 指令注册与执行、资源与工具的管理,以及提示模板的渲染,供大模型客户端通过 JSON-RPC 调用,并可通过多传输协议进行通信。

Chronicle MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的注册与渲染,通过 JSON-RPC 与 AI 客户端进行交互,支持以标准输入输出(StdIO)传输的通信方式,为 LLM 应用提供可扩展的上下文服务框架。

CloudBase MCP Mini Manus 服务器

基于 Model Context Protocol 的 MCP 服务器端实现,提供资源、工具与示例性提示模板等能力,支持通过 JSON-RPC 与客户端通信,且实现了通过不同传输协议(如 SSE/HTTP)进行交互的服务器端逻辑。

Code Guardian MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议接入。

arifOS MCP Server

基于 Model Context Protocol (MCP) 的后端治理与资源/工具/提示模板管理服务器,面向 LLM 客户端提供标准化的上下文数据、可注册/执行的工具集以及可渲染的 Prompt 模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并具备扩展传输协议(如 STDIO、SSE、WebSocket)的能力,为 LLM 应用提供安全、可审计的上下文服务框架。

MCP 工具服务器示例

基于Model Context Protocol,提供BMI计算和天气查询工具的服务器示例。

jailbreak-mcp

一个MCP服务器代理,用于管理和过滤多个后端MCP服务器的能力,优化LLM客户端的上下文使用。

Project Horizon 股票价格 MCP 服务器

为AI代理提供标准化的股票价格查询工具服务,基于模型上下文协议(MCP)实现。

MCP时间工具服务器 (Snowgoose内嵌示例)

Snowgoose仓库内包含的一个基于Model Context Protocol (MCP) 的简单时间工具服务器实现。

MCP Server (Spring AI based)

基于Spring AI框架构建的MCP服务器,提供资源、工具和Prompt模板管理,并通过SSE实现与LLM客户端的通信。

Groq Compound MCP Server

为 Groq 模型提供基于模型上下文协议 (MCP) 的服务器,支持实时信息问答和代码执行工具。

ContextBase Server

ContextBase Server 是一个专为AI应用设计的模型上下文协议(MCP)服务器,用于安全地存储、管理和检索用户上下文信息,支持构建个性化和持久化的AI交互体验。

MCP Lite

MCP Lite 是一个基于 Ruby 开发的轻量级模型上下文协议(MCP)服务器实现,旨在为 LLM 应用提供高效、可扩展的上下文服务框架。

AgentMCP:多智能体协作平台

AgentMCP是一个开源平台,实现了模型上下文协议(MCP),旨在促进不同AI框架下智能体之间的无缝协作和通信。

Proxy Base Agent (PBA)

Proxy Base Agent是一个基于Proxy Structuring Engine (PSE)构建的状态化Agent框架,通过MCP协议支持动态扩展工具能力,保证Agent工具调用的可靠性。

Go-MCP:模型上下文协议Go语言实现

Go-MCP 是一个 Go 语言 SDK,用于构建和交互 Model Context Protocol (MCP) 应用,支持服务端和客户端实现。

MCP REST Server Transport

基于 RESTful API 的 MCP 服务器传输层实现,支持通过 HTTP 协议接收和发送 MCP 消息。

Sentry MCP服务器

Sentry MCP服务器是一个原型项目,旨在为LLM应用提供访问Sentry错误监控数据的工具,作为模型上下文协议(MCP)的远程服务端。

go-modelcontextprotocol库

go-modelcontextprotocol是一个Go语言库,用于构建符合模型上下文协议(MCP)的服务端应用,提供资源管理、工具注册和Prompt模板定义等核心功能。

Figma Context MCP Server

Figma Context MCP Server是一个基于模型上下文协议(MCP)的服务器,旨在将Figma设计数据以结构化的方式提供给AI编码工具,从而提升AI代码生成的准确性和设计一致性。

Pebble

Pebble是一个通用通信协议库,旨在为AI Agent提供标准化的上下文服务,支持模型上下文协议(MCP),并实现跨框架的Agent交互。

MCP Lambda Server Layer

为AWS Lambda函数提供MCP服务器基础设施,支持SSE协议,简化LLM应用在AWS环境中的上下文服务构建。

GIMP AI助手 (GIMP-MCP)

通过模型上下文协议(MCP)连接AI模型与GIMP,实现图像编辑的智能化扩展。

EventCatalog MCP Server

为 EventCatalog 提供 MCP 接口,支持 Claude、Cursor 等 MCP 客户端访问 EventCatalog 的架构文档和信息。

MCPR

Rust实现的模型上下文协议(MCP)库,提供构建MCP服务器和客户端的工具和库。

AgentIQ

AgentIQ是一个灵活的库,旨在将企业级智能体与各种数据源和工具无缝集成,并兼容模型上下文协议(MCP),作为一个有效的MCP服务器实现。

Image Generation Server

Image Generation MCP Server是一个基于Model Context Protocol的后端应用,允许LLM客户端通过调用工具生成图像,并支持配置图像参数和保存路径。