找到 2 个结果
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源与工具的托管与管理、提示模板渲染、以及对外部 MCP 客户端的工具注册与执行能力;同时内置认证、秘密管理、Docker 隔离等安全与扩展特性,支持多传输协议(HTTP/SSE、stdio、WebSocket 等)并通过 JSON-RPC 与客户端通信,形成面向 LLM 场景的上下文服务框架。
基于MCP协议,提供安全的Docker沙箱环境,允许LLM执行代码并返回结果,支持多语言,资源可控。