← 返回首页

"缓存"标签的搜索结果

找到 5 个结果

Overseerr MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 Overseerr 集成的上下文信息、工具和提示模板,通过 JSON-RPC 进行通信,并支持 STDIO、SSE/HTTP 等传输通道,便于在 AI 应用中进行资源检索、请求管理与媒体详情查询等功能的上下文服务。

Gemini MCP 服务器

将 Google Gemini 模型能力封装为 MCP 服务器,提供文本生成、对话、函数调用、文件处理和缓存等工具,方便 LLM 客户端调用。

Momento MCP服务器

基于Momento云服务的MCP服务器,为LLM应用提供数据存储和访问工具,实现上下文信息的管理和利用。

内存缓存MCP服务器

这是一个基于Model Context Protocol的内存缓存服务器,通过高效缓存数据减少LLM交互过程中的Token消耗。

Memory Cache Server

该项目是一个MCP服务器,通过内存缓存机制,为LLM应用提供数据缓存服务,减少重复数据传输,从而降低Token消耗。