作为Chat Bridge项目的后端组件,该服务通过JSON-RPC协议向LLM客户端提供标准化的对话历史查询、上下文记忆管理和工具集成功能。
为Home Assistant提供AI辅助开发环境,通过MCP协议实现LLM对智能家居设备的上下文访问和控制。
基于.NET 9 ASP.NET Core实现的MCP服务器,支持API密钥/JWT认证、工具自动发现和OpenAPI。
连接 Claude Code AI 与 ACP 兼容客户端的适配器,内置 MCP 服务器提供文件、终端和权限工具。
一个MCP服务器,集成RAGFlow REST API,为LLM客户端(如Claude Desktop)提供知识库查询、文档管理和智能RAG增强服务。
高性能Go HTTP服务框架,内置MCP协议支持,为LLM应用提供上下文管理、工具调用和Prompt服务。
一个基于Model Context Protocol (MCP) 的安全增强型后端服务器,通过结合mTLS和Biscuit令牌,为LLM应用提供多层加密授权的上下文服务。
为Dexter平台提供全面管理的模型上下文协议(MCP)桥接服务,通过Stdio和HTTPS向LLM客户端暴露精选的连接器工具。
为LLM客户端提供Claude Code令牌使用量和成本分析服务,通过MCP协议暴露数据访问工具。
通过 MCP 协议为 AI 应用提供 Tableau 数据、可视化和 Pulse 指标的访问与功能集成。
专为Next.js和Nuxt等Web框架设计,提供便捷的方式实现Model Context Protocol (MCP) 服务器,支持工具调用、上下文管理和AI模型通信。
一个基于Python的MCP服务器框架,提供持久化会话、工具和资源管理,支持服务器重启后安全地恢复LLM交互。
该服务器作为LLM与Observe可观测性平台之间的安全桥梁,通过MCP协议提供Observe API功能、OPAL查询辅助和故障排除手册访问。
一个用Haskell语言实现的Model Context Protocol (MCP) 服务器框架。
使用 TypeScript SDK 实现的 MCP 服务器和客户端示例,涵盖多种传输协议和授权流程。
基于Spring AI框架构建的MCP服务器,提供资源、工具和Prompt模板管理,并通过SSE实现与LLM客户端的通信。
MCPML是一个Python框架,用于构建基于模型上下文协议(MCP)的服务器,并支持CLI工具和OpenAI Agent集成。
Chef CLI 是一个用于 ADaaS 配方开发的命令行工具,同时可以作为 MCP 服务器为 LLM 客户端提供上下文服务。
基于 Azure Functions 的 MCP 服务器快速启动模板,帮助开发者轻松构建和部署云端 LLM 上下文服务。
基于GPT Researcher和Open WebUI构建的MCP服务器,为LLM应用提供研究和信息检索的上下文服务。
Dust Bridge Server 是一个 MCP 服务器,它充当 Windsurf IDE、Claude Desktop 等开发工具与 Dust AI 助手之间的桥梁,实现开发环境与 Dust AI 的集成。
基于Spring AI构建的MCP协议演示服务器,提供资源、工具和Prompt模板管理功能。
基于AWS的模块化MCP服务器集群,为LLM应用提供可扩展的上下文服务和工具集成。
Model Context Protocol (MCP) Python SDK 提供了一套全面的工具,用于构建兼容 MCP 协议的服务器和客户端应用,简化 LLM 应用的上下文管理。
一个轻量级的本地MCP服务器实现,通过WebSocket和JSON-RPC协议,为LLM客户端提供文本处理和聊天能力。
该项目是基于FastAPI和MCP的Python MCP服务器实现,旨在为LLM客户端提供标准化的上下文交互能力,包括资源管理、工具注册和Prompt模板支持。
该Ruby库提供了一个实验性的Model Context Protocol (MCP) 服务器实现,允许开发者使用Ruby构建兼容MCP协议的后端服务。