← 返回首页

"LLM context backend"标签的搜索结果

找到 1 个结果

UnusualWhales MCP 服务器

基于 Model Context Protocol 的后端服务器,提供统一的资源管理、工具注册与执行、提示模板渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输方式(如 Stdio、SSE、WebSocket)。