找到 3 个结果
基于 Model Context Protocol (MCP) 的后端服务器,为大型语言模型(LLM)客户端提供标准化的上下文、工具调用和提示渲染能力,支持资源管理、工具注册与执行,以及提示模板渲染等功能,默认通过标准输入/输出(JSON-RPC over STDIO)进行通信。
一个基于MCP协议的服务器,用于在Agent任务完成后发送系统桌面通知并播放提示音,支持多种操作系统和LLM客户端。
ntfy-mcp-server 是一个轻量级的 MCP 服务器,它通过 ntfy 服务向用户发送任务完成通知,让用户及时了解 AI 助手的工作状态。