基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具执行与提示模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 两种传输模式,便于将 AI 助手接入 Phoebe API 的上下文与功能。
基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。
基于 Model Context Protocol (MCP) 的后端服务器实现,作为 MCP 服务器提供多昵称通知、工具执行和提示模板渲染,并通过 JSON-RPC 与 MCP 客户端通信。
包含基于 Model Context Protocol (MCP) 构建的服务器端示例,展示如何实现上下文服务和工具调用。