基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 与 LLM 客户端进行上下文与功能交互,部署在 Cloudflare Workers 中以实现安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册与执行、会话管理、资源与提示结构的扩展能力,并通过 OAuth 授权安全地将 Fathom 数据(会议、转录、摘要等)暴露给大语言模型客户端进行上下文服务。