基于 Model Context Protocol(MCP)的后端服务实现,提供资源与工具的注册与管理、集成管理、OAuth 授权流以及面向 LLM 客户端的上下文与能力服务,支持多提供商体系与可扩展的服务器端特性。
基于 Model Context Protocol(MCP)的一套后端服务器实现,向大语言模型客户端提供项目上下文资源、可用工具以及可渲染的提示模板,支持自动发现 AI_README.md、注册并执行工具、以及通过 JSON-RPC 与客户端通信的完整后端能力。
基于 Model Context Protocol(MCP)的后端服务器,面向 MCP 客户端以标准化的 JSON-RPC 方式暴露 Nancy Brain 的知识检索上下文服务。核心职责包括:托管与管理 资源 (Resources) 以供数据访问、注册与执行 Tools 以调用外部功能、定义和渲染 Prompt 模板以支持自定义的 LLM 交互模式;并通过 stdio/HTTP 等传输协议实现与客户端的高效通信,提供会话管理与能力声明,适配多种 MCP 客户端(如 Claude Desktop、VS Code 等)。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具执行与提示模板渲染能力,面向大语言模型(LLM)客户端以标准化方式提供上下文数据与功能。
基于 Model Context Protocol (MCP) 的后端服务,提供内存管理、工具调用和提示模板等能力,通过 JSON-RPC 与客户端交互,支持本地存储、上下文管理与任务化协作的上下文服务。
基于 MCP(Model Context Protocol)协议的后端服务器,向 LLM 客户端提供统一的上下文资源、可注册执行的工具以及可渲染的提示/模板,支持 JSON-RPC 通信、多种传输协议,以及会话管理与能力声明,便于在聚类分析、语义检索和论文上下文中为大语言模型提供可扩展的 contexto 服务。
基于 Model Context Protocol (MCP) 的.NET 实现,提供 Tools、Prompts、Resources 的注册与执行,并通过 SignalR 进行与 MCP 客户端的双向通信,支持多传输模式(stdio、http),实现会话管理、能力声明和扩展的 JSON 序列化配置,适合作为本地应用的 MCP 服务器桥接层。
基于 Model Context Protocol (MCP) 的后端服务器,实现对 Microsoft SQL Server 的只读资源访问、工具执行与提示模板渲染,支持 JSON-RPC 风格的请求/响应,供 LLM 客户端在对话中获得上下文信息与外部功能。
基于 Model Context Protocol (MCP) 的后端服务器,提供对 GitHub 的上下文资源、工具执行与提示模板的标准化访问,支持 JSON-RPC 交互,适配多种传输方式并具备会话管理、能力声明与远程工具发现等能力,用于为大语言模型提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器,作为 VidCap YouTube API 的上下文服务提供方,管理资源与工具,支持 JSON-RPC 的请求/响应,并通过 STDIO、流式 HTTP/WebSocket 等传输方式与 MCP 客户端进行交互,便于 AI 助手在对话中获取视频数据、执行外部功能和渲染提示模板。
这是一个基于 Model Context Protocol (MCP) 实现的服务器,提供学术论文检索工具、数据资源管理和Prompt模板,作为LLM应用的上下文后端服务。
这是一个Java项目,包含一个可嵌入的MCP服务器实现,用于向LLM客户端提供标准化的工具调用和上下文信息。
提供基于Cloudflare Workers的MCP服务器实现模板,支持资源托管、工具执行和Prompt模板渲染,为LLM应用提供标准化上下文服务。
Claude-Mem 是一个为 Claude Code 提供持久化记忆功能的插件,通过 MCP 服务器提供强大的语义搜索工具,帮助用户管理和检索会话上下文及工具使用记录。
将任何AI代理转换为领域专家,通过Model Context Protocol为LLM提供模块化、可重用的技能。
Mnemex 是一个基于 MCP 协议的服务器,为 AI 助手提供类似人类的短期记忆动态,支持记忆衰减、强化和长期存储。
Etienne是一个基于NestJS和React构建的平台,为Claude Code提供无头模式操作、任务调度、内存管理及自定义工具托管,同时自身也作为MCP服务器提供扩展功能。
MCP-Use是一个全面的TypeScript框架,用于构建AI智能体、创建带UI组件的MCP服务器,并提供内置调试器。
这是一个基于Web Worker和WASM技术构建的浏览器内MCP服务器,允许LLM客户端直接访问和操作用户本地文件系统。
Deco CMS提供构建AI原生应用的MCP服务器框架,通过标准化协议管理资源、工具和Prompt模板,支持LLM应用上下文服务。
基于 fiberplane mcp-lite 和 RedwookSDK 构建的轻量级 MCP 服务器,提供标准化的工具调用和实时日志功能。
基于Model Context Protocol (MCP) 和 Agent-to-Agent (A2A) 协议的云原生后端服务,提供资源管理、工具调用和上下文服务,支持身份认证和可扩展部署。
一个用于在 Haskell 中构建 Model Context Protocol (MCP) 服务器的框架库。
提供用于构建支持 North 认证和上下文管理的 Python MCP 服务器所需的库和示例。
连接Blackbird AI与兼容MCP的LLM客户端,提供增强上下文和功能的MCP服务器。
使用 Python 快速构建符合 Model Context Protocol (MCP) 标准的 AI 后端服务,提供工具和资源能力。
为编码智能体提供Actor-Critic驱动的上下文服务,利用知识图谱增强记忆与决策能力。
基于 Model Context Protocol (MCP) 构建 LLM 应用的高效框架,用于创建和编排 Agent、调用工具和管理上下文。
基于Redis的Agent Memory Server,通过REST和MCP接口为AI Agent提供短期和长期记忆管理,支持语义搜索、自动摘要和灵活的API。
Commune 是一个 Rust 库,用于构建可发现的 AI 代理网络,它基于 MCP 协议,提供资源、工具和 Prompt 管理等核心服务器功能,并支持 WebSocket 通信。
MCPhoenix是一个使用Elixir Phoenix框架构建的轻量级MCP服务器实现,简化了上下文信息和工具的集成。
一个C# .NET教程项目,演示了如何使用SSE和STDIO实现一个基础的MCP服务器,用于产品分类任务。
基于Model Context Protocol (MCP) 的智能记忆服务器,为VS Code等LLM客户端提供结构化上下文管理服务。
MCP-Think 是一个实现了思考工具的 MCP 服务器,允许 LLM 记录和检索思考过程,辅助复杂推理和问题解决。
strowk_mcp-k8s-go 是一个基于 Golang 开发的 MCP 服务器,它扩展了 LLM 的能力,使其能够与 Kubernetes 集群进行交互,获取集群信息并执行操作。
MCP Inception Server 允许用户通过其提供的工具,间接调用另一个MCP客户端执行任务,实现任务委托和上下文管理,如同“代理的代理”。