基于 Rust 的 MCP 服务器实现,向 AI 客户端以标准化的 JSON-RPC 方式暴露会议记录的资源、工具和提示渲染能力,支持文档列表、检索、获取原始转写、同步、以及基于 OpenAI 的摘要等功能,方便将本地会议数据接入到 LLM 代理进行上下文查询与分析。
基于 Model Context Protocol(MCP)的后端服务器,面向 MCP 客户端以标准化的 JSON-RPC 方式暴露 Nancy Brain 的知识检索上下文服务。核心职责包括:托管与管理 资源 (Resources) 以供数据访问、注册与执行 Tools 以调用外部功能、定义和渲染 Prompt 模板以支持自定义的 LLM 交互模式;并通过 stdio/HTTP 等传输协议实现与客户端的高效通信,提供会话管理与能力声明,适配多种 MCP 客户端(如 Claude Desktop、VS Code 等)。