标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务器实现,承载并以标准化方式向 LLM 客户端提供上下文与功能。服务器托管资源(Resources)、注册与执行工具(Tools),并定义/渲染提示模版(Prompts),通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多种传输协议(如 STDIO、SSE、WebSocket),为多工作区的 LLM 应用提供安全、可扩展的上下文服务框架。