找到 2 个结果
基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册/执行、Prompt 模板渲染以及面向 LLM 客户端的上下文服务,支持 stdio 与 HTTP 等传输、外部 MCP 联邦等扩展能力,旨在为渗透测试场景中的 AI Copilot 提供标准化的上下文与执行能力。
该服务器作为LLM与Observe可观测性平台之间的安全桥梁,通过MCP协议提供Observe API功能、OPAL查询辅助和故障排除手册访问。