← 返回首页

"会话管理"标签的搜索结果

找到 58 个结果

SSH-SFTP MCP 服务器

基于模型上下文协议(MCP)的后端实现,提供对远程服务器的 SSH 命令执行、SFTP 文件操作与会话管理等能力,供大型语言模型客户端通过 JSON-RPC 调用获取上下文、执行工具并管理会话。

Agents Council MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,支持多代理协同的会话管理、工具执行和提示渲染,面向 LLM 客户端提供标准化的上下文服务。

MemWyre MCP 服务器端实现

MemWyre 的 MCP 服务器端实现,基于 Model Context Protocol 架构,为 LLM 客户端提供标准化的资源、工具与提示模板,并通过 JSON-RPC 风格接口与客户端通信,支持会话管理、能力声明及多传输通道的扩展能力。

MyVibe SDLC MCP 服务器组

基于 Model Context Protocol (MCP) 的后端服务器集合,面向软件开发生命周期(SDLC)的资源/工具管理、AI 审核与挑战、状态与流程管控等功能,提供标准化的 JSON-RPC 风格接口并支持多种传输方式(如 标准输入/输出、WebSocket、SSE 等)以供 LLM 客户端调用与协作。

Rosetta Ruchy MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供翻译、分析与能力声明等核心服务,通过标准化接口向多语言客户端提供资源访问、工具执行与 Prompt 模板相关能力,并以 JSON-RPC 风格的 API 与客户端交互,具备会话管理、能力声明、以及可扩展的传输与部署方式,适配代码翻译及形式化验证等后续扩展场景。

GELab-GUI-MCP-Server

基于 Model Context Protocol 的本地多设备图形界面代理后端,提供资源与工具管理、会话管理和任务分发,通过 JSON-RPC/HTTPS 与客户端通信,支持对接多设备 GUI 自动化代理(如在手机上执行任务、获取截图、日志与最终结果)。仓库中包含完整的服务器实现代码(使用 FastMCP 框架的示例),可运行的 MCP 服务端,支持多设备任务分发与会话管理。

Agent Zero MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文信息、资源、工具与提示模板的管理与执行能力。服务器通过 JSON-RPC 风格的交互,支持资源读取、工具注册/执行、Prompts 渲染等核心功能,并具备会话管理、能力声明,以及对多种传输协议(如 STDIO、SSE、WebSocket 等)的扩展支持,适合在本地或服务端环境中作为 MCP 服务端使用。

ModelCypher MCP 服务器

ModelCypher MCP 服务器是一个基于 Model Context Protocol 的后端服务,提供资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明及多传输协议。

FHL Bible MCP Server

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供圣经经文、原文字词、注释及文章等资源的标准化访问与上下文服务,通过 JSON-RPC 进行通信,支持多传输模式、会话管理与能力声明。

URSA MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的托管与管理、工具注册与执行、以及 Prompt 模板的渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议扩展。

PraisonAI MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket)以为 LLM 客户端提供可扩展的上下文服务框架。

Blinkit MCP

基于 MCP 的服务器实现,提供工具接口供 LLM 客户端通过 JSON-RPC 调用,控制 Blinkit 的购物流程(登录、搜索、下单等),并通过浏览器自动化实现实际操作。支持不同传输协议(如 SSE/StdIO),并实现会话管理与状态持久化。

Concierge MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册/执行、Prompt 模板渲染,并通过 MCP/JSON-RPC 进行客户端交互,支持会话管理与跨协议传输,面向 LLM 客户端提供可扩展的上下文服务框架。

Claude Sessions MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现 Claude Code 会话的资源管理、工具执行与提示渲染,提供统一的上下文服务给 LLM 客户端,采用 JSON-RPC 进行交互,支持多传输方式并完成会话、资源、工具等能力的托管与管理。

Claude Power Pack MCP 服务器套件

基于 Model Context Protocol (MCP) 的后端服务器集合,提供多模型协同的代码评审与开发辅助能力、浏览器自动化、以及分布式协调锁等服务,通过 SSE/HTTP 等传输方式对接 MCP 客户端,形成完整的后端上下文与工具提供框架。

y-gui MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,负责注册、管理与渲染 MCP 服务器、资源与工具,并通过流式交互与 MCP 客户端协同工作,提供对上下文、工具和提示模板的标准化服务。

py-code-mode

基于 MCP 的后端服务,为大语言模型客户端提供标准化的上下文信息与功能支持,托管资源、注册工具、定义与渲染提示模板,并通过 JSON-RPC 与客户端交互,支持多种传输协议与会话管理。该仓库实现了 MCP 相关组件与服务器端能力,旨在在本地或分布式环境下提供可扩展的上下文服务。

Qveris MCP Server SDK

基于 Model Context Protocol 的后端服务器实现,提供工具发现、信息获取与执行能力,通过 JSON-RPC 与客户端交互,支持通过标准化接口向 LLM 客户端提供上下文信息和外部工具执行能力。

clai MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器框架,提供对 MCP 请求/响应的处理能力、资源与工具注册管理,以及通过 JSON-RPC 与客户端进行通信的多进程服务器支持与会话管理。

Code Guardian MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议接入。

vLLM.rs MCP 服务端实现

基于 Rust 的 MCP(Model Context Protocol)服务器实现,整合 vLLM.rs 引擎,提供资源托管、工具注册与执行、Prompt 模板渲染等核心 MCP 功能,通过 JSON-RPC 风格通信与 MCP 客户端协同工作,支持多种传输场景并具备会话管理能力。

FlyFun MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务端实现,作为 MCP 服务器向大语言模型客户端提供标准化的资源管理、工具注册/执行以及 Prompt 模板渲染等能力,使用 JSON-RPC 进行通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)以满足多样化上下文服务需求。

ida-headless-mcp

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板等能力,结合 ida-headless 的二进制分析功能,供大语言模型客户端通过 MCP 进行上下文信息获取与功能调用。

Claude Team 团队协作管理器

一个基于Model Context Protocol的MCP服务器,允许Claude Code主会话通过iTerm2生成和管理多个Claude Code工作会话,实现并行开发工作流。

Codex MCP 服务器

为 OpenAI Codex CLI 提供 MCP 协议支持的服务器,让 AI 助手能够通过标准化接口进行代码分析、审查和对话式开发

CLI Agent MCP Gateway

一个基于Go的HTTP网关服务,通过标准化MCP协议向LLM客户端提供多种AI CLI工具的上下文访问和功能调用能力

Symfony MCP Bundle

基于Symfony框架的MCP服务器组件,支持多种AI平台和工具调用

TinyBrain v2.0 - LLM安全记忆存储MCP服务器

一个基于PocketBase构建的模块化MCP服务器,专注于为大型语言模型提供安全评估会话、记忆存储、关系跟踪、上下文管理和任务进度跟踪服务。

Automagik Genie

Automagik Genie 是一个自进化的AI代理编排框架,通过其内置的MCP服务器为LLM客户端提供项目上下文、工具调用和会话管理,加速AI开发流程。

AI会话MCP服务器

该项目实现了基于MCP协议的服务器,用于统一管理和向LLM客户端提供本地AI编码助手(如Claude Code, Gemini CLI, OpenAI Codex, opencode)的历史会话记录。

Inkeep Agent运行时API

一个可扩展的AI Agent运行时后端,通过Model Context Protocol (MCP) 和A2A协议暴露AI Agent能力,提供工具调用、上下文管理和会话交互服务。

Codex AI助手服务

一个基于Model Context Protocol (MCP) 的后端服务,将OpenAI Codex CLI的能力集成到Claude等LLM客户端中,提供AI编程助手功能。

VERITAS 对话日志MCP服务器

VERITAS 对话日志MCP服务器是Model Context Protocol (MCP) 服务器,用于自动记录LLM对话、活动和工具使用,并生成研究日志。

Poet MCP 服务器

Poet 是一个集成 MCP 服务器的静态网站生成器,为 LLM 应用提供内容上下文和交互能力。

Nanobot

Nanobot是一个灵活的MCP主机,用于构建和部署AI代理,通过标准化协议向LLM客户端提供上下文、工具和Prompt服务。

Reboot 耐久型MCP服务器框架

一个基于Python的MCP服务器框架,提供持久化会话、工具和资源管理,支持服务器重启后安全地恢复LLM交互。

MCP聊天适配器

通过MCP协议,为LLM客户端提供连接OpenAI或兼容API的聊天能力和会话管理。

FastAPI MCP 服务器

基于FastAPI的MCP服务器,为大型语言模型提供上下文管理、工具调用和SSE实时通信能力。

MCP SSE 代理服务器

提供基于 SSE 的代理层,连接并远程执行 MCP 服务器,支持共享/独立会话。

Streamable HTTP MCP Server (TypeScript)

基于 Model Context Protocol 和 Streamable HTTP 协议的服务器端实现,使用 TypeScript 开发,提供资源管理、工具注册和 Prompt 模板等核心 MCP 功能。

MCP认证参考服务器

本仓库提供了一系列参考服务器,演示了如何为MCP服务器实现身份验证,保障LLM客户端安全访问上下文信息和功能。

Coral Agent通信服务器

Coral Server是一个MCP服务器,为AI Agent提供线程消息通信工具,支持Agent注册、会话管理和消息传递。

模型上下文管理服务器

基于Model Context Protocol的后端服务,提供会话管理、上下文存储和AI模型查询等核心功能,简化LLM应用开发流程。

安全SSE MCP服务器

基于Node.js和MCP SDK构建,提供JWT认证的安全SSE传输MCP服务器,支持动态工具注册和会话管理。

Ollama Desktop API

Ollama Desktop API 为桌面应用提供 AI 模型服务,集成 MCP 协议,支持工具扩展和会话管理。

MCP Catie 代理服务器

轻量级MCP代理服务器,根据请求内容动态路由JSON-RPC请求到后端服务,提供会话管理和监控等功能。

Gemini Context MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,利用 Gemini 的强大能力提供上下文管理和 API 缓存,优化 LLM 应用的效率和成本。

DB MCP Server

数据库MCP服务器,为LLM客户端提供数据库操作工具和上下文信息,简化数据库集成。

mcp servers

提供会话管理和任务管理的MCP服务器集合,增强LLM应用的状态保持和任务自动化能力。

inoyu mcp unomi server

基于Model Context Protocol的Unomi服务器,通过Apache Unomi管理用户画像,为LLM客户端提供用户上下文信息和profile管理工具。

mcp server emojikey

该MCP服务器使用户能够通过emoji密钥跨会话保持一致的LLM交互风格,支持emoji密钥的存储、检索和历史记录管理功能。

Alec2435 python mcp

提供Python REPL环境的MCP服务器,支持LLM客户端执行Python代码并访问会话历史。

Tmux

Tmux MCP Server 是一个概念验证项目,它实现了 Model Context Protocol (MCP) 服务器,允许 LLM 客户端通过工具调用来控制和管理 Tmux 会话,例如运行 Tmux 命令。

Claude API

此项目是一个MCP服务器实现,旨在通过Model Context Protocol (MCP) 协议,为Claude桌面应用提供 Claude API 的集成能力,支持自定义系统提示、会话管理等高级功能,扩展了Claude桌面应用的功能。

Python REPL

提供Python交互式REPL环境的MCP服务器,允许LLM客户端执行Python代码并访问会话历史。

Room MCP

Room MCP 是一个基于 Model Context Protocol 的命令行工具,用于创建和管理虚拟房间,支持 LLM 客户端(如 Claude)在对等网络空间中与其他 Agent 协作完成目标。

Journaling Server

Journaling Server 是一个基于 MCP 协议的个人日记服务器,能够记录用户对话,进行情感分析,并提供最近日记的访问接口,方便 LLM 应用集成和调用。

Enhanced SSH

Enhanced SSH 仓库提供基于MCP协议的增强型SSH服务器和工具集合,支持安全远程命令执行、上下文感知工具调用和统一上下文管理,为LLM应用提供可扩展的后端服务框架。