← 返回首页

"Model Context Protocol"标签的搜索结果

找到 51 个结果

Tandoor MCP Server

基于 Model Context Protocol 的后端服务器,为 Tandoor 食谱管理系统提供资源、工具和提示模板等上下文服务,供大语言模型调用与查询。

mssql-mcp-server

基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化方式向 LLM 客户端提供 MSSQL 数据库的资源、工具和提示等上下文服务,支持多语言实现(Node 与 .NET 版本)以及基于 JSON-RPC 的交互。

LLxprt-MCP Server(简化实现,面向集成测试)

基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端提供上下文信息、工具调用通道与 Prompts 渲染等功能;核心通过 JSON-RPC 与客户端通信,示例实现包含最小化的服务器以支持集成测试场景。

ToolPlex MCP Server

基于 Model Context Protocol 的后端服务器实现,提供资源托管、工具注册与执行、提示模板管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议、会话管理与权限策略,以为大模型客户端提供安全、可扩展的上下文服务。

Reflex DevTools MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,用于 Reflex DevTools 与 AI 客户端之间的交互。该服务器提供对应用状态、追踪数据、活动订阅、可用处理器/工具等的查询与执行能力,允许 AI 助手读取应用上下文、调用工具并渲染提示模板。通过 JSON-RPC/stdio/WebSocket 等传输,与前端仪表盘以及后端应用建立标准化的上下文服务。

MCP Test Server for Model Context Protocol (MCP)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)等能力,并通过 JSON-RPC 形式与 LLM 客户端交互,支持多种传输方式(如 STDIO、HTTP)。

Claude Code Telegram MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源访问、以及与 LLM 的对话上下文渲染等核心能力。通过 JSON-RPC 与客户端通信,采用 STDIO 传输实现本地进程间通信,适用于 Claude Code 的 Telegram 插件后端场景。该实现涵盖工具调用、批量通知、审批流、AFK/监听等功能模块,具备完整的服务端能力与测试用例。

Hanzo Model Context Protocol 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 客户端通信,支持多种传输通道,面向让大语言模型客户端高效获取上下文、能力和工具的后端服务。

MCPU - MCP 服务器框架

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,支持 stdio、HTTP、SSE 等传输,并通过 JSON-RPC 与客户端进行消息交互,具备会话管理、能力声明及多传输协议支持等能力。

Supertag MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供资源、工具和 Prompt 的标准化上下文服务,并通过 JSON-RPC 进行通信;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力,适用于将 Tana 数据和功能暴露给 AI 模型进行推理、调用和渲染。

CLOPUS MCP 服务器集合

基于 Model Context Protocol 的多模 MCP 服务器实现集合,提供资源管理、工具执行、模板与知识管理等功能,支持 JSON-RPC 通信和多传输通道,覆盖内存、搜索、浏览器、邮件、数据库等多种外部能力的统一后端服务。

Kurral MCP Server

基于 Model Context Protocol(MCP)的后端实现。提供对资源的管理、工具的注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与 SSE 与客户端通信,支持记录与回放等 MCP 服务能力,具备代理、捕获、回放、观测和安全测试等完整特性。

Arivu MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。

Workstation MCP Server

基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文、资源、工具与提示模板,并通过 JSON-RPC/WebSocket 实现 MCP 通信与扩展能力,支持会话管理、权限控制与多传输协议接入。

XPR MCP Server

基于 Model Context Protocol 的 MCP 服务器,实现对 XPR(Proton 区块链)的工具查询、数据访问与外部部署能力,通过 JSON-RPC 与 MCP 客户端通信,并提供 Azure Functions 部署支持。

Hydrolyze MCP Server

基于 Model Context Protocol 的后端 MCP 服务器实现,作为后端上下文服务提供商,向 LLM 客户端以标准化的 JSON-RPC 调用提供资源、工具与提示模板等能力,并通过 MCP 协议进行请求处理与响应返回。该仓库内实现了服务器端工具注册、请求分发以及对 Supabase 等后端的数据访问逻辑,可用于对接外部大模型应用场景。

Edda MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现(集成于 Edda 框架),通过 JSON-RPC/多传输协议向 LLM 客户端暴露 durable workflows、资源和工具,并支持 Prompts 渲染,方便 AI 助手与后端工作流进行长期上下文交互和功能调用。

EllyMUD MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,集成在 EllyMUD 游戏后端,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,便于与大型语言模型或外部 AI 客户端通过 JSON-RPC 进行上下文与功能交互。

DAT MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供面向大语言模型客户端的上下文服务能力,包含工具(Tools)、资源(Resources)和提示模板(Prompts)的注册、管理与执行,支持通过 Spring Boot 部署并对接支持 MCP 的 Agent 客户端。

esa 的 MCP 服务器

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染,采用 STDIO 传输用于与 MCP 客户端进行 JSON-RPC 风格的通信,支持多模态上下文的读取、操作和交互。

Crackerjack MCP 服务器

基于 Crackerjack 的 MCP(Model Context Protocol)服务器实现,提供资源托管与管理、工具注册与执行、以及可渲染的 Prompt 模板等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 WebSocket、StdIO、SSE),为 LLM 客户端提供安全、可扩展的上下文服务框架。

MCP-CLI-Go 本地 MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的管理与执行,支持通过 JSON-RPC 与 MCP 客户端通信,并具备标准化的服务器端会话管理和多传输模式能力(如 StdIO)。

iata-code-decoder MCP 服务端

基于 Model Context Protocol(Model Context Protocol,简称模型上下文协议)实现的后端服务器,提供机场、航空公司与机型等 IATA 代码的查询工具,并通过 MCP 客户端进行统一的上下文服务和外部工具调用。该服务器包含完整的 MCP 服务器实现、会话管理和工具执行能力,面向 AI 应用提供标准化的数据访问与功能扩展入口。

Savant Model Context Protocol 服务器

基于 Model Context Protocol 构建的后端服务,为对话型客户端提供标准化的资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,支持多引擎协同、JSON-RPC 通信以及多种传输协议的 MCP 场景实现。

Cognia MCP 服务端实现

基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。

AC2-MCP 服务器(多智能体上下文服务)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 的定义/渲染,支持通过多种传输方式进行 JSON-RPC 通信,供 LLM 客户端以标准化方式获取上下文、调用外部工具并渲染对话模板。

Identity MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板的托管与管理,并通过 MCP 协议向 LLM 客户端暴露上下文服务、数据访问与外部功能调用能力。支持多种传输方式(HTTP/JSON-RPC、SSE、WebSocket/流式)以及多用户隔离。

docsearch-mcp

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供资源访问、工具调用和提示模板的统一上下文服务,支持文档索引、向量检索、以及与 Claude Code 等 MCP 客户端的无缝集成。

ElizaOS Knowledge MCP 服务器

基于 Model Context Protocol 的后端服务,提供资源、工具与提示模板的标准化上下文服务,通过 JSON-RPC 与 LLM 客户端进行交互,当前实现以 STDIO 传输为主要通讯方式,能够托管本地知识库中的日常简报、事实、理事会简报等资源,并暴露查询与渲染工具以支持多样化的 LLM 交互场景。

HealthSim MCP Server

基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。

NSSA AI Agent Platform - MCP Server 集合

基于 Model Context Protocol(MCP)的企业级 MCP 服务器实现,提供网络诊断与知识检索等工具的服务端能力,并与图谱编排、工具网关、审计日志等模块协同工作,支持多服务器架构和标准化的 JSON-RPC 交互。

LeanMCP SDK

TypeScript SDK,用于构建基于模型上下文协议(MCP)的服务器端应用,提供装饰器定义的工具/资源/提示、会话管理、以及基于 JSON-RPC 的流式传输 HTTP 服务实现,支持自动发现、UI绑定与多种扩展能力。

OpenTiny NEXT-MCP 服务器实现套件

基于 Model Context Protocol 构建的 MCP 服务器实现集合,提供资源与工具的托管、Prompt 定义及渲染能力,并通过 JSON-RPC 与客户端通信,支持多入口输出、浏览器扩展场景,以及跨进程/跨页面的上下文服务能力。

LangChain.js MCP Server for Beginners

一个汇集了多份基于 Model Context Protocol (MCP) 的服务器实现与使用示例的学习资源库,能够通过标准化的 JSON-RPC 方式向 LLM 客户端暴露资源、工具与提示模板,支持 stdio 与 HTTP 等多种传输模式,并演示多服务器协同工作与工具调用执行流程。

Miyabi MCP 服务器集合

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,提供资源管理、工具注册/执行、Prompt 模板定义与渲染等能力,作为后端上下文服务框架供 LLM 客户端通过 JSON-RPC 进行资源访问、外部功能调用与交互模板渲染。仓库中包含多个可运行的 MCP 服务器示例,支持通过标准化接口对接 Claude/LLM 客户端。

TEQUMSA_NEXUS — 基于 Model Context Protocol 的多服务器 MCP 实现集合

TEQUMSA_NEXUS 仓库提供以 Model Context Protocol(MCP)为核心的后端服务器实现,涵盖资源、工具、提示模板等资源的托管与管理,以及通过 JSON-RPC 风格接口进行跨节点协同与数据访问,为大语言模型(LLM)客户端提供可扩展的上下文服务框架。

BL1NK Skill MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,用于托管与执行 BL1NK Skills,并集成 AWS Bedrock Nova Lite 进行技能生成与推理,支持资源、工具、提示模板的标准化管理与 JSON-RPC 通信。

Lambda MCP Server

基于AWS Lambda的serverless MCP服务器,通过HTTP为LLM应用提供工具能力。

Spring AI MCP服务器示例

基于Spring AI框架实现的MCP服务器示例,提供元素周期表查询、文件系统访问和地图路线规划等工具服务。

Okta MCP Server

Okta MCP Server 是一个基于 Model Context Protocol 的应用后端,旨在使 AI 模型能够安全访问和管理 Okta 环境,为 IAM 和安全团队提供强大的上下文服务能力。

MCP协议验证器

提供Model Context Protocol (MCP) 服务器的参考实现和一致性测试套件,支持STDIO和HTTP传输协议。

Merge API MCP服务器

通过Model Context Protocol (MCP) 将Merge API的数据和功能集成到LLM应用,实现自然语言访问和操作Merge API数据。

Simple Bedrock Chatbot with MCP Services

基于Amazon Bedrock的文档问答聊天机器人,通过MCP服务器提供实时信息和外部工具访问,增强LLM上下文处理能力。

SingleStore MCP 服务器

SingleStore MCP 服务器是一个基于 Model Context Protocol 的后端实现,旨在连接 SingleStore 数据库与 LLM 客户端,提供资源访问和数据库操作工具。

Agentic Finance Platform

Agentic Finance Platform 是一个基于 Model Context Protocol (MCP) 的 AI 金融交易平台,利用多智能体协同进行投资决策,并提供实时监控和分析仪表板。

KAgent MCP Server

KAgent MCP Server基于Kubernetes,为AI Agent提供资源和工具管理,通过标准MCP协议简化LLM应用后端开发。

Authed MCP服务器集成

Authed MCP服务器集成方案,为AI Agent提供安全认证的Model Context Protocol服务。

edge agents

Agentics Edge Functions提供了一个基于Supabase Serverless平台的Model Context Protocol (MCP) 服务器实现,用于管理AI Agent的资源和工具。

demo mcp on amazon bedrock

基于Amazon Bedrock的MCP服务器演示项目,提供ChatBot API并集成多种MCP工具,扩展大模型应用场景。

kotlin sdk

kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。

atlas mcp server

ATLAS MCP Server为大型语言模型提供层级任务管理能力,支持资源、工具和Prompt模板,并通过JSON-RPC协议与客户端通信。