← 返回首页

"上下文管理"标签的搜索结果

找到 131 个结果

AIRIS MCP 网关

统一管理和代理25+ Model Context Protocol (MCP) 服务器,为LLM客户端提供智能上下文服务和工具调用。

Orcheo (AI工作流编排平台)

Orcheo是一个支持AI助手的Model Context Protocol (MCP) 服务器,用于创建、运行和管理工作流,并向LLM提供上下文信息和功能。

gen-mcp:零代码MCP服务器生成器

gen-mcp 能够通过简单的配置或现有API(如OpenAPI)快速生成并运行Model Context Protocol (MCP) 服务器,即时将任意API、CLI命令或本地数据转换为LLM可调用的资源和工具。

AI Advent Challenge - 智能代理核心服务

一个生产级Model Context Protocol (MCP) 服务器,为LLM客户端提供丰富的AI工具和上下文管理,支持自动化任务、内容摘要及代码分析。

Agor

Agor是一个多玩家空间画布,用于协调多个AI编程助理在并行任务上协作,提供Git工作树、AI对话跟踪和团队代理工作的实时可视化。

MCP-UI:Model Context Protocol 交互式界面开发工具

为基于Model Context Protocol (MCP) 的AI应用提供跨语言SDK,用于构建、交付和渲染富交互式上下文界面。

AI Advisor MCP服务器

AI Advisor MCP服务器是基于Model Context Protocol (MCP) 的后端,为LLM客户端提供多模型AI咨询、文件上下文管理、成本跟踪及配置管理等工具服务。

Episodic Memory MCP 服务器

为 LLM 客户端提供语义搜索和对话历史浏览能力,作为 Claude Code 对话的记忆扩展。

Ollamadrama内置MCP服务器

这是一个Java项目,包含一个可嵌入的MCP服务器实现,用于向LLM客户端提供标准化的工具调用和上下文信息。

Neo4j智能代理记忆MCP服务器

连接Neo4j图数据库,为AI代理提供持久化记忆、知识图谱构建与检索功能,支持LLM通过工具调用进行智能上下文管理。

Amp子代理服务

提供一个基于MCP协议的服务器,用于动态定义和管理自定义AI子代理,支持LLM调用外部功能和上下文隔离。

MCP Toolz上下文管理服务器

一个强大的MCP服务器,为LLM客户端(如Claude Code)提供上下文管理、待办事项持久化及多AI视角分析功能,支持跨会话和项目的数据共享。

Cloudflare Agents MCP 服务骨架

提供基于Cloudflare Workers的MCP服务器实现模板,支持资源托管、工具执行和Prompt模板渲染,为LLM应用提供标准化上下文服务。

AutoMem MCP SSE 服务器

为AI助手提供持久、关系型记忆服务,并通过MCP (Model Context Protocol) SSE桥接方式与大语言模型客户端通信。

Claude-Mem

Claude-Mem 是一个为 Claude Code 提供持久化记忆功能的插件,通过 MCP 服务器提供强大的语义搜索工具,帮助用户管理和检索会话上下文及工具使用记录。

ExoMind:AI认知架构与多模态MCP服务器集成

ExoMind是一个AI驱动的认知架构开发环境,通过集成多个MCP服务器,为LLM提供强大的上下文管理、工具调用及多模态交互能力。

Skills MCP 服务器

将任何AI代理转换为领域专家,通过Model Context Protocol为LLM提供模块化、可重用的技能。

Agent Agency - MCP Arbiter 观察器

提供基于MCP协议的智能多智能体编排平台,作为观察器连接Arbiter系统,提供工具调用、日志和度量访问。

Mnemex:AI 助手时序记忆服务器

Mnemex 是一个基于 MCP 协议的服务器,为 AI 助手提供类似人类的短期记忆动态,支持记忆衰减、强化和长期存储。

Etienne - 无头Claude AI助手平台

Etienne是一个基于NestJS和React构建的平台,为Claude Code提供无头模式操作、任务调度、内存管理及自定义工具托管,同时自身也作为MCP服务器提供扩展功能。

MCP代理处理器

一个可配置的MCP代理服务器,通过分组精细控制AI代理对工具、资源和Prompt的访问,优化上下文窗口。

MCP-Use:TypeScript模型上下文协议框架

MCP-Use是一个全面的TypeScript框架,用于构建AI智能体、创建带UI组件的MCP服务器,并提供内置调试器。

Nexus (AI-原生分布式文件系统)

Nexus 是一个 AI 原生的分布式文件系统与智能代理平台,集成了 MCP 服务器,为 LLM 应用提供上下文管理、工具调用和记忆服务。

Tusk 🐘

Tusk是一个为AI代理提供持久化记忆的MCP服务器,通过开发者日志、上下文恢复和站会报告生成,增强AI在开发工作中的连续性和效率。

MCP天气上下文服务器

一个基于Model Context Protocol (MCP) 实现的天气信息服务后端,为LLM客户端提供天气查询工具、相关资源和Prompt模板。

EpicMe MCP 服务器

一个基于Model Context Protocol (MCP) 实现的日记应用后端,提供资源管理、工具调用和Prompt模板功能,并支持AI聊天中的UI交互。

dere - 智能分层AI助手

dere是一个为Claude CLI设计的智能分层AI助手,通过个性化、上下文感知和记忆功能增强LLM交互,并集成了MCP服务器以提供实时活动监测和健康数据管理。

Conduit:浏览器内MCP服务器

这是一个基于Web Worker和WASM技术构建的浏览器内MCP服务器,允许LLM客户端直接访问和操作用户本地文件系统。

EpicMe MCP日志认证服务器

一个基于Cloudflare Workers的MCP服务器,为LLM提供带OAuth2.1认证和授权的日志及标签管理、智能提示服务。

AgentGateway

AgentGateway是一个为Agentic AI设计的连接平面,支持Model Context Protocol (MCP) 和Agent2Agent (A2A),提供安全性、可观测性和治理能力,并能将传统API转换为MCP资源。

MCP通用服务演示

一个集成了多种功能模块的MCP服务器实现,旨在演示如何通过标准化Model Context Protocol为LLM提供工具、资源和Prompt服务。

AI回声机器人天气MCP服务器

基于MCP协议的后端服务,为LLM客户端提供标准化的实时天气查询工具。

Tiger Memory MCP 服务器

提供基于MCP协议的记忆存储与检索服务,允许LLM轻松管理和访问上下文信息。

.NET MCP 服务器示例与开发指南

一个综合性的 .NET AI 工作坊,提供 Model Context Protocol (MCP) 服务器的开发示例,使 LLM 客户端能够调用外部工具并获取上下文信息。

Deco CMS MCP服务器框架

Deco CMS提供构建AI原生应用的MCP服务器框架,通过标准化协议管理资源、工具和Prompt模板,支持LLM应用上下文服务。

粘滞便笺 MCP 服务器

一个基于Model Context Protocol (MCP) 实现的服务器,用于管理和展示带有视觉渲染的彩色粘滞便笺。

RWSdk 轻量级 MCP 服务器

基于 fiberplane mcp-lite 和 RedwookSDK 构建的轻量级 MCP 服务器,提供标准化的工具调用和实时日志功能。

SuperFlag - AI上下文指令引擎

SuperFlag是一个基于MCP协议的上下文服务器,通过提供可定制的AI指令(flags)来引导和增强大型语言模型的行为和功能。

MemMachine

MemMachine 是一个通用AI记忆层,通过MCP协议为AI Agent提供持久化、个性化的短期和长期记忆管理服务。

AI代理项目上下文管理服务器

一个基于Model Context Protocol (MCP) 的HTTP服务器,旨在为AI代理提供分层上下文管理、任务规划、版本控制和多模型子代理协作能力。

ADK MCP天气服务器

ADK框架下的一个MCP服务器示例,通过JSON-RPC协议为LLM客户端提供天气查询工具,实现上下文信息和工具功能的标准化交互。

MCP服务器快速启动模板

为构建基于Model Context Protocol (MCP) 的AI助手上下文服务器提供快速启动模板,支持工具、资源和Prompt的集成与管理。

云端智能代理与MCP服务快速启动

基于Model Context Protocol (MCP) 和 Agent-to-Agent (A2A) 协议的云原生后端服务,提供资源管理、工具调用和上下文服务,支持身份认证和可扩展部署。

Python MCP认证服务器

一个基于Python实现的MCP服务器,支持OAuth 2.0认证,提供安全的上下文信息和工具调用服务。

Haskell MCP 服务器框架

一个用于在 Haskell 中构建 Model Context Protocol (MCP) 服务器的框架库。

North MCP Python 服务器工具包

提供用于构建支持 North 认证和上下文管理的 Python MCP 服务器所需的库和示例。

Blackbird MCP Server

连接Blackbird AI与兼容MCP的LLM客户端,提供增强上下文和功能的MCP服务器。

MCP Node.js 示例服务器

基于Node.js实现的MCP服务器示例,支持JSON-RPC、工具调用、资源访问和SSE传输。

Aura AI伴侣 MCP 服务

为Aura AI伴侣提供MCP接口,使外部LLM客户端能访问其记忆、情绪分析等核心功能。

Azure MCP Server 示例

演示如何使用 Azure MCP 服务器通过 LLM 访问 Azure 资源,支持工具调用和上下文管理。

Azure Container Apps MCP 示例服务器

基于MCP协议,实现在Azure容器应用上运行的示例服务器,提供TODO列表工具集,支持HTTP和SSE传输。

Sodateru知识图谱服务器

提供基于Agentic GraphRAG的自更新知识图谱服务,作为MCP服务器为LLM提供上下文和工具。

MCPBot MCP服务器

基于FastAPI实现的MCP服务器,为LLM应用提供上下文信息、工具调用(如RAG、工位预订)和Prompt服务。

Blaxel MCP Python 开发工具包

使用 Python 快速构建符合 Model Context Protocol (MCP) 标准的 AI 后端服务,提供工具和资源能力。

Plasma

基于 Ruby 的 MCP 服务器构建 SDK,提供 Rails 风格的约定,简化工具、Prompt 和资源开发。

Ephemera AI 上下文服务器

基于MCP协议,为AI提供长期记忆、工具和上下文访问接口,支持资源、工具和Prompt服务。

Actor-Critic驱动的编码智能体上下文服务器

为编码智能体提供Actor-Critic驱动的上下文服务,利用知识图谱增强记忆与决策能力。

Mem0 MCP 服务器

将 Mem0.ai 持久记忆系统集成到 AI 助手的 MCP 服务器。提供工具用于存储、检索、搜索和管理不同类型的用户记忆。

Research Graph MCP服务器

基于AIRAS框架,提供论文检索等AI研究自动化功能作为MCP工具。

GoMCP

GoMCP是Go语言实现的Model Context Protocol库,用于构建完全兼容MCP协议的服务器和客户端应用程序。

SequentialThinking Plus MCP 服务器

一个基于MCP协议的后端服务,为大型语言模型提供结构化、支持多种策略的问题解决和分析能力。

AI记忆增强MCP服务器

为大型语言模型(如Claude)提供持久化记忆能力,支持自动记忆存储和检索,增强会话连贯性。

Graphiti MCP服务器

为AI Agents构建实时知识图谱,并通过MCP协议提供上下文和能力服务。

助手记忆服务

为大语言模型(LLM)助手提供持久化、图谱化记忆和上下文信息管理能力的后端服务。

Student Life Organizer

基于MCP原理,为AI助手提供学生日程、笔记、任务等数据管理功能的后端服务原型。

fast-agent MCP 应用框架

基于 Model Context Protocol (MCP) 构建 LLM 应用的高效框架,用于创建和编排 Agent、调用工具和管理上下文。

记忆图谱 MCP 服务器

基于本地知识图谱的MCP服务器,为LLM提供持久记忆、检索和管理能力,支持跨会话上下文。

AI Guards

标准化AI辅助开发工作流,为LLM提供结构化的代码规范、Prompt模板和上下文信息。

RubyMCP

RubyMCP 是一个用 Ruby 语言构建的 Model Context Protocol (MCP) 服务器和客户端库,旨在简化 LLM 应用的后端开发。

Memory Bank系统

Memory Bank是一个用于AI助手的上下文记忆和代码规则集成系统,通过数据库存储和API接口提供项目知识管理和会话连续性功能。

ContextBase Server

ContextBase Server 是一个专为AI应用设计的模型上下文协议(MCP)服务器,用于安全地存储、管理和检索用户上下文信息,支持构建个性化和持久化的AI交互体验。

Redis Agent Memory Server

基于Redis的Agent Memory Server,通过REST和MCP接口为AI Agent提供短期和长期记忆管理,支持语义搜索、自动摘要和灵活的API。

Commune

Commune 是一个 Rust 库,用于构建可发现的 AI 代理网络,它基于 MCP 协议,提供资源、工具和 Prompt 管理等核心服务器功能,并支持 WebSocket 通信。

MCP数据句柄服务器示例

演示如何构建MCP服务器,通过句柄管理pandas DataFrame,为LLM提供安全可控的数据操作工具。

Hyperf MCP Server

基于 Hyperf 框架实现的 MCP 服务器,提供资源、工具和 Prompt 管理,支持 SSE 和命令行交互。

EasyMCP

用于管理和连接多个MCP服务器的Python客户端库,简化LLM应用上下文处理。

模型上下文管理服务器

基于Model Context Protocol的后端服务,提供会话管理、上下文存储和AI模型查询等核心功能,简化LLM应用开发流程。

PolyMind平台

基于Anthropic MCP协议构建的AI Agent系统后端,用于机器学习建模和代码生成。

MCPhoenix

MCPhoenix是一个使用Elixir Phoenix框架构建的轻量级MCP服务器实现,简化了上下文信息和工具的集成。

MCP Router

MCP Router 是一个代理 MCP 服务器,可以将客户端请求转发到远程 MCP 服务器,实现对远程资源、工具和 Prompt 的访问。

LOTUS-MCP 示例服务器

LOTUS-MCP 是一个用于演示 Model Context Protocol (MCP) 服务器概念的示例项目,它展示了如何集成 Mistral 和 Gemini 模型,并提供统一的请求处理流程。

Effect MCP Server

基于Effect框架构建的MCP服务器实现,提供资源、工具和Prompt模板管理,并通过SSE协议与LLM客户端通信。

AIML Tutorial MCP Server (C#)

一个C# .NET教程项目,演示了如何使用SSE和STDIO实现一个基础的MCP服务器,用于产品分类任务。

Smart Memory MCP v2 Server

基于Model Context Protocol (MCP) 的智能记忆服务器,为VS Code等LLM客户端提供结构化上下文管理服务。

Mainframe Orchestra (MCP Adapter)

一个轻量级 Agent 框架,通过 MCP 协议集成外部工具和服务,扩展 LLM 应用能力。

MCP示例服务器

基于Model Context Protocol的示例服务器,提供工具注册、执行和远程调用功能,用于扩展LLM能力。

MCP智能体框架

一个用于构建和编排基于MCP服务器的智能体的框架,提供Agent和Orchestrator等核心组件,并包含可运行的MCP服务器示例。

MCP-Think: 思考工具服务器

MCP-Think 是一个实现了思考工具的 MCP 服务器,允许 LLM 记录和检索思考过程,辅助复杂推理和问题解决。

MetaMCP App (自托管)

MetaMCP App提供自托管GUI,用于管理和配置多个MCP服务器,支持资源、工具和Prompt模板,作为MCP客户端代理入口。

Mcp.Net

Mcp.Net 是一个用于构建MCP服务器的.NET库,提供工具、资源和Prompt管理,简化AI应用后端开发。

内存缓存MCP服务器

这是一个基于Model Context Protocol的内存缓存服务器,通过高效缓存数据减少LLM交互过程中的Token消耗。

GPT CLI 客户端 (MCP增强)

一个命令行工具,通过集成 Model Context Protocol (MCP) 服务器,增强 GPT 的功能,实现工具调用和上下文管理。

Gemini Context MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,利用 Gemini 的强大能力提供上下文管理和 API 缓存,优化 LLM 应用的效率和成本。

MemoDB MCP服务器

MemoDB MCP服务器是基于模型上下文协议(MCP)构建的后端服务,专注于为AI应用提供对话上下文和个人知识库管理能力。

MCP思考工具服务器

一个MCP服务器,为LLM提供结构化思考空间,通过记录和管理思维过程增强其推理能力。

Memory MCP Server

基于知识图谱的MCP服务器,为LLM提供持久化记忆能力,支持实体、关系和观察的管理与检索。

FastMCP轻量级服务器

基于FastMCP框架构建的轻量级MCP服务器,专注于提供工具注册和生命周期管理,简化LLM应用后端开发。

AiderDesk MCP Server

AiderDesk MCP Server 为 AiderDesk 应用提供 MCP 协议支持,允许 LLM 客户端通过标准化的方式与其交互,管理上下文文件和执行代码操作。

Memory Bank MCP

Memory Bank MCP服务器为AI助手提供跨会话记忆管理,支持资源存储、工具调用和Prompt模板,构建上下文感知应用后端。

MCP上下文管理服务器示例

一个基础的MCP服务器实现,提供资源管理、数据访问和上下文服务,包含天气数据示例服务器。

Cue - AI 个人助理 (macOS MCP 服务器)

Cue macOS 应用内置 MCP 服务器,为本地 AI Agent 提供上下文管理、工具注册和 Prompt 模板服务,支持模型环境配置和工具集成。

Tyler Agent框架

Tyler是一个用于构建AI代理的Python框架,它兼容MCP协议,支持多模态输入、工具集成和上下文管理,旨在简化生产级AI应用的开发。

Qdrant MCP Server

基于MCP协议的Qdrant向量数据库服务器,为AI agent提供语义搜索和知识管理能力。

Popmelt MCP服务器

基于Model Context Protocol的参考实现,提供个性化AI交互的上下文管理和模型集成服务。

Contextmgr MCP Server

Contextmgr MCP Server 是一个用于管理开发上下文和工作流程的 MCP 服务器实现,它在项目目录中维护状态,并提供项目、工作包和任务管理工具。

Qdrant向量数据库MCP服务器

基于MCP协议,提供对Qdrant向量数据库的上下文信息管理和检索能力。

MCP上下文管理器

contextmanager仓库提供了一套基于MCP的服务器实现,用于在多个知识域中增强AI模型的持久化上下文管理能力。

model context protocol

MCPS是一个Elixir实现的上下文管理系统,为AI模型提供RESTful API,支持上下文的存储、检索、转换和监控,用于构建AI应用后端。

agent cli

Recall CLI 是一个用于创建加密货币交易信号检测代理的命令行工具,内置 MCP 服务器,为 LLM 代理提供上下文管理、资源访问和工具注册等功能。

Elysia mcp

Elysia-mcp 是一个基于 Bun 和 Elysia 框架构建的高性能 MCP 服务器,用于向 LLM 应用提供资源、工具和 Prompt 模板管理功能。

mcp server multiverse

Multiverse MCP Server允许运行和管理多个隔离的标准MCP服务器实例,为LLM客户端提供统一的、带有命名空间的功能访问入口。

mcp k8s go

strowk_mcp-k8s-go 是一个基于 Golang 开发的 MCP 服务器,它扩展了 LLM 的能力,使其能够与 Kubernetes 集群进行交互,获取集群信息并执行操作。

mcp knowledge graph

本仓库实现了一个基于本地知识图谱的MCP服务器,为LLM提供持久化记忆功能,支持跨会话的用户信息存储和检索。

mcp summarization functions

该项目是一个MCP服务器,为AI Agent提供文本摘要功能,支持多种AI模型,优化上下文管理,并可通过MCP协议与客户端交互。

Prototype MCP

Prototype-MCP 是一个开源框架,旨在构建 MCP 服务器,为AI模型提供动态上下文管理、持久化内存、工具调用和Prompt模板等核心功能,提升AI交互体验。

model context protocol rs

一个Rust实现的MCP服务器,提供资源管理、工具调用和Prompt模板功能,支持STDIO和SSE传输协议,用于构建LLM应用的上下文服务后端。

claude prompt manager

claude-prompt-manager 是一个简单的 MCP 服务器,用于管理 Claude 提示词,允许用户在 Claude Desktop 中使用预定义的提示词。

ezmcp

ezmcp是一个轻量级的Python框架,用于构建基于SSE传输的Model Context Protocol (MCP) 服务器,简化了LLM应用后端的开发。

Retrieval Augmented Thinking

Retrieval-Augmented Thinking MCP Server通过结构化思考过程增强AI推理能力,支持动态思考链、并行探索和迭代优化。

Context Manager

Claude Server MCP是一个为Claude桌面应用提供项目和对话上下文管理功能的MCP服务器,支持持久化上下文、项目组织和对话连续性。

Dev Memory

Dev Memory Server是一个MCP服务器,旨在为LLM客户端提供持久化的开发记忆管理,支持存储、检索和优化开发上下文信息。

Charly Memory Cache

Charly Memory Cache 是一个 MCP 服务器,通过在语言模型交互之间高效缓存数据,减少Token消耗并提升性能。

Memory by File

一个简单的MCP服务器,使用文本文件存储和管理聊天记忆,为Claude等LLM客户端提供添加、搜索、删除和列出记忆的工具,增强对话上下文理解。

Memory Service

该仓库实现了一个基于MCP协议的语义记忆服务,为 Claude Desktop 等 LLM 应用提供持久化存储和语义检索能力,支持上下文管理和知识库构建。

Memory Cache Server

该项目是一个MCP服务器,通过内存缓存机制,为LLM应用提供数据缓存服务,减少重复数据传输,从而降低Token消耗。

mcp inception

MCP Inception Server 允许用户通过其提供的工具,间接调用另一个MCP客户端执行任务,实现任务委托和上下文管理,如同“代理的代理”。

JSON based Knowledge Graph Memory

该项目提供基于MCP协议的知识图谱内存服务器,支持使用Neo4j或JSON文件存储知识图谱,并对外提供操作知识图谱的工具接口。

MemGPT

基于 Model Context Protocol (MCP) 的内存增强型 LLM 服务端,支持 OpenAI, Anthropic, OpenRouter 和 Ollama,提供对话历史记录和模型切换等功能。

Claude Chunks

Claude Chunks 是一个 MCP 服务器,专注于智能文档分块,优化 Claude 上下文窗口,帮助用户高效处理和总结大型文档。

Summarization Functions

为AI Agent设计的MCP服务器,提供智能文本摘要功能,优化上下文窗口,支持多种AI模型。

Knowledge Graph Memory Server

该仓库实现了一个基于知识图谱的MCP服务器,为LLM提供持久化记忆功能,支持存储实体、关系和观测信息,并提供增删改查等操作工具,用于增强LLM的上下文理解和用户个性化。