找到 4 个结果
基于 Model Context Protocol (MCP) 的后端实现,用于向 MCP 客户端提供资源访问、工具执行以及可自定义的提示/交互界面,在本地通过标准输入输出(stdio)进行通信,并辅以 WebSocket/HTTP 提供前端 UI。该服务端在实现中包含状态机驱动的文本/Markdown显示、单字段及多字段输入、用户上下文持久化以及会话管理等能力,适合作为面向 AI 客户端的上下文服务后端。
一个基于Python的MCP服务器框架,提供持久化会话、工具和资源管理,支持服务器重启后安全地恢复LLM交互。
一个基于Rust的MCP服务器,提供内嵌V8引擎,允许AI调用运行JavaScript代码,并支持持久化状态。
Memory Bank MCP服务器为AI助手提供跨会话记忆管理,支持资源存储、工具调用和Prompt模板,构建上下文感知应用后端。