基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册、资源管理、提示模板渲染等能力,并通过 SSE 传输实现与 MCP 客户端的通信,用于在 LLM 客户端侧获取上下文、执行工具与获取 Prompts。
基于 Model Context Protocol (MCP) 的服务器实现,作为 RSSMonster 应用的 MCP 服务端,向大型语言模型(LLM)客户端提供资源访问、工具执行和提示模板渲染能力。服务器通过 JSON-RPC 与客户端通信,提供对 RSS/文章、分类、订阅等资源的托管与管理,注册并执行工具以调用外部功能,以及渲染与自定义提示模板,且具备会话管理和能力声明,支持通过 HTTP(以及未来扩展的传输协议)进行多路传输。核心实现包含完整的服务端路由、数据库模型、MCP 工具集以及与 AI 相关的分析能力。
一个为 Claude 提供的 MCP 服务器,支持检索 LangChain, LlamaIndex, OpenAI 等库的文档,提升 Claude 的上下文理解能力。
R2D2 服务器提供数据查询和分析后端服务,支持连接 Dune Analytics 和 OpenAI,帮助用户通过自然语言查询区块链数据并可视化。