找到 9 个结果
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源与工具的托管与管理、提示模板渲染、以及对外部 MCP 客户端的工具注册与执行能力;同时内置认证、秘密管理、Docker 隔离等安全与扩展特性,支持多传输协议(HTTP/SSE、stdio、WebSocket 等)并通过 JSON-RPC 与客户端通信,形成面向 LLM 场景的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供统一的资源管理、工具注册/执行以及 Prompt 模板的定义和渲染,能够通过 JSON-RPC 与 LLM 客户端进行交互,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理、能力声明及健康监控等扩展能力。
基于 Model Context Protocol 的后端服务器实现,提供工具发现、信息获取与执行能力,通过 JSON-RPC 与客户端交互,支持通过标准化接口向 LLM 客户端提供上下文信息和外部工具执行能力。
智能MCP服务器中介,提供语义化工具发现、缓存和多服务器统一访问功能
MCP of MCPs是一个高效的MCP元服务器,能够聚合和管理多个MCP服务器,为AI代理提供统一的工具发现、按需加载和沙盒代码执行能力,显著降低LLM的token消耗并提升工作流效率。
这是一个基于MCP协议构建的元服务器,旨在帮助AI助手发现和集成其他MCP服务器,提供一站式工具发现服务。
Semantic Tool是一个基于语义相似性的微服务,用于动态发现和调用外部工具,并支持管理MCP服务器。
MCP Servers Hub是一个集中收集和展示各种Model Context Protocol (MCP) 服务器的仓库,旨在帮助用户发现和了解不同的MCP服务器实现。
MCP工具,作为MCP服务器的代理,帮助用户发现、安装和管理其他MCP服务器,为LLM客户端提供统一的上下文服务入口。