基于 Model Context Protocol (MCP) 的 NotebookLM 后端服务器实现,提供资源、工具和提示的标准化管理与渲染,支持通过 JSON-RPC 与 LLM 客户端通信,具备会话管理、能力声明以及对多种传输协议的支持,适用于将 NotebookLM 的上下文和功能暴露给强大的 AI 助手。
基于 Model Context Protocol (MCP) 的 NotebookLM 后端服务器实现,提供资源、工具和提示的标准化管理与渲染,支持通过 JSON-RPC 与 LLM 客户端通信,具备会话管理、能力声明以及对多种传输协议的支持,适用于将 NotebookLM 的上下文和功能暴露给强大的 AI 助手。