← 返回首页

"会话管理"标签的搜索结果

找到 91 个结果

Keep MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,提供标准化的后端上下文服务,能够向客户端暴露 Resources、Tools,以及通过 MCP 协议读取和执行操作的能力,并以 JSON-RPC 形式进行请求/响应。实现了 MCP 的核心处理路径(初始化、获取资源、读取资源、列出工具、执行工具),并提供一个可运行的服务器接口入口(包括在 STDIO 模式下接收请求并返回响应的能力)。

Recharge Storefront API MCP Server

基于 Model Context Protocol 的后端服务器,实现对 Recharge Storefront API 的资源访问、工具注册/执行以及 Prompts 渲染,面向与 LLM 客户端的标准化上下文服务能力。

PMOVES-BoTZ Docling-MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供文档处理资源、工具注册与执行、以及 Prompt/模板的上下文服务,支持通过 STDIO、HTTP/SSE 等传输协议与 LLM 客户端进行 JSON-RPC 通信,并具备健康检查、会话管理与多传输能力的后端服务框架。

Terminal MCP 服务器

基于 Model Context Protocol (MCP) 架构的后端实现,提供对本地 UNIX 终端的会话创建、命令执行、输出读取等能力,并通过 JSON-RPC 与客户端通信,采用标准输入输出传输(stdio)等方式对接 LLM 客户端、实现资源与工具的管理与渲染。

Katana MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,支撑 LLM 应用的上下文与功能服务。

Pulse MCP 服务端

面向大语言模型的后端MCP服务器,实现通过JSON-RPC向LLM客户端提供资源、工具和Prompt相关的上下文服务,支持跨GitHub、Jira、Confluence的数据获取与操作,以及会话管理与多传输协议接入的能力。

Pwsh-Repl MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供持久化 PowerShell 会话、资源管理与工具执行,供大型语言模型(LLM)客户端通过 JSON-RPC 访问上下文数据和可执行功能。

SaveContext MCP 服务器

基于 Model Context Protocol 的本地化 MCP 服务器,向 LLM 客户端提供资源管理、工具注册与执行、提示模板渲染等能力,支持多会话、嵌入式语义检索、离线部署和多工具协作。

mcp-bbs MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务端,实现对 BBS Telnet 会话的管理、工具暴露、提示/菜单学习与知识库维护,并通过 MCP JSON-RPC 向 AI 客户端提供上下文信息与操作能力。

Ask O11y MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,作为 Grafana 插件后端,负载资源管理、工具注册与执行、提示渲染等功能,并通过 JSON-RPC 与客户端通信,支持多传输协议、RBAC、多租户等场景的上下文服务框架。

CompText MCP 服务器

基于 Model Context Protocol (MCP) 的服务端实现,作为 CompText Codex 的后端上下文服务,向 MCP 客户端暴露工具清单、执行工具调用、以及初始化能力声明等接口。通过将 Codex 中注册的命令工具对外暴露,MCP 客户端能够读取资源、调用工具、以及获取提示/模板等相关能力信息,并在会话中实现上下文管理与跨模块协作。目前实现提供工具列出、工具执行和初始化响应等核心能力,属于可直接在应用中集成的 MCP 服务器端组件。

Baichuan MCP Servers - 医疗场景的 MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等 MCP Apps 功能,支持多传输模式(STDIO、SSE、HTTP),用于向 LLM 客户端提供标准化的上下文信息和能力。

kubectl-mtv MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,作为与大语言模型(LLM)客户端的标准化上下文服务入口,提供资源管理、工具注册/执行以及提示模板的渲染能力,支持 JSON-RPC 交互与多种传输模式(如 stdin/stdout、SSE、WebSocket),并具备会话管理、能力声明和动态工具发现等特性。该服务器以 kubectl-mtv 项目内的实现为基础,能够与客户端通过 JSON-RPC 请求交互,提供迁移相关的资源、工具及提示信息的上下文服务。

Kuadrant MCP Gateway

基于模型上下文协议(MCP)的后端网关与服务器聚合实现,能够将多个后端MCP服务器 behind 一个统一入口进行托管、注册工具并通过JSON-RPC进行交互与通知。

Jaato MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端通信,支持本地 IPC 与 WebSocket 等传输方式,面向 LLM 客户端提供可扩展的上下文服务。

SSH MCP Server

基于 Model Context Protocol 的后端服务,提供可运行的 MCP 服务,包含 SSH 连接管理、命令执行、SFTP、服务器配置管理、凭证存储与审计日志等工具,并通过 JSON-RPC 与 LLM 客户端交互,支持多连接、安全锁定与自动重连等特性,为 LLM 应用提供安全、可扩展的上下文服务框架。

Qurio MCP Server Backend

基于 Model Context Protocol 的 MCP 服务器实现,提供资源/工具/ prompts 的托管与管理,并通过 JSON-RPC/流式传输与 MCP 客户端交互,支持 SSE、Stdio、WebSocket 等传输形式,具备会话管理与扩展能力的后端服务器实现。

Fathom MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册与执行、会话管理、资源与提示结构的扩展能力,并通过 OAuth 授权安全地将 Fathom 数据(会议、转录、摘要等)暴露给大语言模型客户端进行上下文服务。

MCP 服务端(前端边缘 MCP 服务器与代理)

基于 Model Context Protocol 的完整 MCP 服务器实现,提供浏览器端边缘节点与远程代理之间的 JSON-RPC 通信、资源与工具管理、事件存储/查询,以及多会话、多标签下的工具路由等能力,支持 WebSocket 与 HTTP 传输。该仓库不仅包含前端边缘设备的实现,还实现了用于代理端的 Node.js 服务器、以及与 MCP 协议对接的服务端组件,形成一套较完整的 MCP 服务端生态。]

Farnsworth MCP 服务器

基于 Farnsworth 的 Model Context Protocol(MCP) 服务端实现;通过 MCP 协议向 MCP 客户端暴露资源管理、工具注册/执行以及提示模板等能力,支持多传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明,提供一个安全、可扩展的上下文服务后端。

tescmd MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 形式暴露资源、工具和提示,提供会话管理、能力声明、工具注册与执行,以及对多种传输协议的支持,构建可扩展的上下文服务框架。

Janee-MCP 服务端(本地密钥管理与审计日志)

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具和提示模板的注册、执行和渲染能力;通过 JSON-RPC 与 MCP 客户端通信,支持本地密钥管理、会话管理、策略审核和完整审计日志,适用于在本地或受控环境中为 AI Agent 提供上下文和外部 API 访问能力。

Roo Extensions MCP 服务器集成

Roo Extensions 是一个面向开发者的 MCP 服务器生态,基于 Model Context Protocol 提供面向 LLM 客户端的资源管理、工具注册与执行以及可定制 Prompt 渲染等能力,核心通过 JSON-RPC 与客户端通信,并在多传输协议(如 Stdio、SSE、WebSocket)下提供会话管理、能力声明与扩展性,支持多 MCP 实例协同工作与跨机器同步。仓库中包含多个内部/外部 MCP 实例、同步系统 RooSync、SDDD 跟踪等组件,构成完整的后端上下文服务框架。

UNITARES Governance MCP 服务器实现

基于 Model Context Protocol(MCP)理念的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIN/STDIO、SSE、WebSocket)与会话管理,目标是在大语言模型客户端上提供结构化、可扩展的上下文服务。该仓库包含服务器端示例、核心数学与治理逻辑、工具与会话处理等模块,适用于搭建多智能体后端上下文服务场景。

Harness MCP 服务器端

基于 Model Context Protocol (MCP) 的完整后端服务器实现,提供资源、工具和提示模板的托管与数据访问,通过 JSON-RPC 形式与 MCP 客户端通信,支持 HTTP 与 stdio 两种传输模式,并实现会话管理、能力声明及多工具集扩展与集成 Harness API 的能力。

Berry Classic MCP 服务器

Berry 实现了基于 Model Context Protocol 的经典(Classic)MCP服务器 surface,提供核心的上下文服务能力:资源与证据管理、工具执行、以及提示模板的暴露与渲染,并通过 JSON-RPC 风格接口供 LLM 客户端调用。

SkillLite MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,负责向 LLM 客户端以标准化格式提供技能资源、工具注册与执行、以及 Prompt 模板的渲染,支持会话管理、能力声明,并通过 JSON-RPC 与客户端进行通信,具备沙箱化执行、工具调用以及多传输协议的能力。该实现包含服务器端逻辑、工具/技能管理、以及对外暴露的 MCP 接口,属于服务器端实现而非仅仅的客户端示例。

Hegelion-MCP 服务器实现

基于 Model Context Protocol(MCP)的通用后端实现,提供 dialectical 问答流程、自动编码工作流、资源与工具管理,以及基于 Prompt 的模板渲染。通过 JSON-RPC 与客户端通信,支持资源读取、工具调用、Prompt 获取与渲染等核心 MCP 功能,并实现会话管理、能力声明以及多传输通道的扩展能力(如 StdIO、SSE、WebSocket 等)以为 LLM 客户端提供安全、可扩展的上下文服务框架。

Aleph MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力;通过 MCP JSON-RPC 与客户端通信,支持多种传输形态,面向将大规模本地数据供给给大模型进行上下文驱动推理的应用场景。

Climux MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供对外暴露的工具、资源与提示模板,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输方式,作为 LLM 客户端的上下文与功能提供者。

Claude Code Harness MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现。该服务器通过 JSON-RPC 提供对工具的注册与执行、会话管理及跨客户端通信能力,支持多工具整合、Plans 与会话监控等功能,并通过标准传输(如 STDIO)与 MCP 客户端进行交互。该实现可作为 LLM 客户端(如 Claude Code、Codex 等)访问的上下文服务后端。

elephant.ai MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,负责与 MCP 客户端通过 JSON-RPC 协议通信,注册并执行外部工具、管理资源与提示模板,并支持多种传输方式(如 STDIO、HTTP SSE),提供会话管理、能力声明及外部工具的接入能力。

Agently-MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供资源、工具与提示模板等上下文信息与功能,支持多传输协议、会话管理与认证,目标是为 LLM 客户端提供可扩展、安全的上下文服务框架。

SSH-SFTP MCP 服务器

基于模型上下文协议(MCP)的后端实现,提供对远程服务器的 SSH 命令执行、SFTP 文件操作与会话管理等能力,供大型语言模型客户端通过 JSON-RPC 调用获取上下文、执行工具并管理会话。

Agents Council MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,支持多代理协同的会话管理、工具执行和提示渲染,面向 LLM 客户端提供标准化的上下文服务。

MemWyre MCP 服务器端实现

MemWyre 的 MCP 服务器端实现,基于 Model Context Protocol 架构,为 LLM 客户端提供标准化的资源、工具与提示模板,并通过 JSON-RPC 风格接口与客户端通信,支持会话管理、能力声明及多传输通道的扩展能力。

MyVibe SDLC MCP 服务器组

基于 Model Context Protocol (MCP) 的后端服务器集合,面向软件开发生命周期(SDLC)的资源/工具管理、AI 审核与挑战、状态与流程管控等功能,提供标准化的 JSON-RPC 风格接口并支持多种传输方式(如 标准输入/输出、WebSocket、SSE 等)以供 LLM 客户端调用与协作。

Rosetta Ruchy MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供翻译、分析与能力声明等核心服务,通过标准化接口向多语言客户端提供资源访问、工具执行与 Prompt 模板相关能力,并以 JSON-RPC 风格的 API 与客户端交互,具备会话管理、能力声明、以及可扩展的传输与部署方式,适配代码翻译及形式化验证等后续扩展场景。

GELab-GUI-MCP-Server

基于 Model Context Protocol 的本地多设备图形界面代理后端,提供资源与工具管理、会话管理和任务分发,通过 JSON-RPC/HTTPS 与客户端通信,支持对接多设备 GUI 自动化代理(如在手机上执行任务、获取截图、日志与最终结果)。仓库中包含完整的服务器实现代码(使用 FastMCP 框架的示例),可运行的 MCP 服务端,支持多设备任务分发与会话管理。

Agent Zero MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文信息、资源、工具与提示模板的管理与执行能力。服务器通过 JSON-RPC 风格的交互,支持资源读取、工具注册/执行、Prompts 渲染等核心功能,并具备会话管理、能力声明,以及对多种传输协议(如 STDIO、SSE、WebSocket 等)的扩展支持,适合在本地或服务端环境中作为 MCP 服务端使用。

ModelCypher MCP 服务器

ModelCypher MCP 服务器是一个基于 Model Context Protocol 的后端服务,提供资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明及多传输协议。

FHL Bible MCP Server

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供圣经经文、原文字词、注释及文章等资源的标准化访问与上下文服务,通过 JSON-RPC 进行通信,支持多传输模式、会话管理与能力声明。

URSA MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的托管与管理、工具注册与执行、以及 Prompt 模板的渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议扩展。

PraisonAI MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket)以为 LLM 客户端提供可扩展的上下文服务框架。

Blinkit MCP

基于 MCP 的服务器实现,提供工具接口供 LLM 客户端通过 JSON-RPC 调用,控制 Blinkit 的购物流程(登录、搜索、下单等),并通过浏览器自动化实现实际操作。支持不同传输协议(如 SSE/StdIO),并实现会话管理与状态持久化。

Concierge MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册/执行、Prompt 模板渲染,并通过 MCP/JSON-RPC 进行客户端交互,支持会话管理与跨协议传输,面向 LLM 客户端提供可扩展的上下文服务框架。

Claude Sessions MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现 Claude Code 会话的资源管理、工具执行与提示渲染,提供统一的上下文服务给 LLM 客户端,采用 JSON-RPC 进行交互,支持多传输方式并完成会话、资源、工具等能力的托管与管理。

Claude Power Pack MCP 服务器套件

基于 Model Context Protocol (MCP) 的后端服务器集合,提供多模型协同的代码评审与开发辅助能力、浏览器自动化、以及分布式协调锁等服务,通过 SSE/HTTP 等传输方式对接 MCP 客户端,形成完整的后端上下文与工具提供框架。

y-gui MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,负责注册、管理与渲染 MCP 服务器、资源与工具,并通过流式交互与 MCP 客户端协同工作,提供对上下文、工具和提示模板的标准化服务。

py-code-mode

基于 MCP 的后端服务,为大语言模型客户端提供标准化的上下文信息与功能支持,托管资源、注册工具、定义与渲染提示模板,并通过 JSON-RPC 与客户端交互,支持多种传输协议与会话管理。该仓库实现了 MCP 相关组件与服务器端能力,旨在在本地或分布式环境下提供可扩展的上下文服务。

Qveris MCP Server SDK

基于 Model Context Protocol 的后端服务器实现,提供工具发现、信息获取与执行能力,通过 JSON-RPC 与客户端交互,支持通过标准化接口向 LLM 客户端提供上下文信息和外部工具执行能力。

clai MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器框架,提供对 MCP 请求/响应的处理能力、资源与工具注册管理,以及通过 JSON-RPC 与客户端进行通信的多进程服务器支持与会话管理。

Code Guardian MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议接入。

vLLM.rs MCP 服务端实现

基于 Rust 的 MCP(Model Context Protocol)服务器实现,整合 vLLM.rs 引擎,提供资源托管、工具注册与执行、Prompt 模板渲染等核心 MCP 功能,通过 JSON-RPC 风格通信与 MCP 客户端协同工作,支持多种传输场景并具备会话管理能力。

FlyFun MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务端实现,作为 MCP 服务器向大语言模型客户端提供标准化的资源管理、工具注册/执行以及 Prompt 模板渲染等能力,使用 JSON-RPC 进行通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)以满足多样化上下文服务需求。

ida-headless-mcp

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板等能力,结合 ida-headless 的二进制分析功能,供大语言模型客户端通过 MCP 进行上下文信息获取与功能调用。

Claude Team 团队协作管理器

一个基于Model Context Protocol的MCP服务器,允许Claude Code主会话通过iTerm2生成和管理多个Claude Code工作会话,实现并行开发工作流。

Codex MCP 服务器

为 OpenAI Codex CLI 提供 MCP 协议支持的服务器,让 AI 助手能够通过标准化接口进行代码分析、审查和对话式开发

CLI Agent MCP Gateway

一个基于Go的HTTP网关服务,通过标准化MCP协议向LLM客户端提供多种AI CLI工具的上下文访问和功能调用能力

Symfony MCP Bundle

基于Symfony框架的MCP服务器组件,支持多种AI平台和工具调用

TinyBrain v2.0 - LLM安全记忆存储MCP服务器

一个基于PocketBase构建的模块化MCP服务器,专注于为大型语言模型提供安全评估会话、记忆存储、关系跟踪、上下文管理和任务进度跟踪服务。

Automagik Genie

Automagik Genie 是一个自进化的AI代理编排框架,通过其内置的MCP服务器为LLM客户端提供项目上下文、工具调用和会话管理,加速AI开发流程。

AI会话MCP服务器

该项目实现了基于MCP协议的服务器,用于统一管理和向LLM客户端提供本地AI编码助手(如Claude Code, Gemini CLI, OpenAI Codex, opencode)的历史会话记录。

Inkeep Agent运行时API

一个可扩展的AI Agent运行时后端,通过Model Context Protocol (MCP) 和A2A协议暴露AI Agent能力,提供工具调用、上下文管理和会话交互服务。

Codex AI助手服务

一个基于Model Context Protocol (MCP) 的后端服务,将OpenAI Codex CLI的能力集成到Claude等LLM客户端中,提供AI编程助手功能。

VERITAS 对话日志MCP服务器

VERITAS 对话日志MCP服务器是Model Context Protocol (MCP) 服务器,用于自动记录LLM对话、活动和工具使用,并生成研究日志。

Poet MCP 服务器

Poet 是一个集成 MCP 服务器的静态网站生成器,为 LLM 应用提供内容上下文和交互能力。

Nanobot

Nanobot是一个灵活的MCP主机,用于构建和部署AI代理,通过标准化协议向LLM客户端提供上下文、工具和Prompt服务。

Reboot 耐久型MCP服务器框架

一个基于Python的MCP服务器框架,提供持久化会话、工具和资源管理,支持服务器重启后安全地恢复LLM交互。

MCP聊天适配器

通过MCP协议,为LLM客户端提供连接OpenAI或兼容API的聊天能力和会话管理。

FastAPI MCP 服务器

基于FastAPI的MCP服务器,为大型语言模型提供上下文管理、工具调用和SSE实时通信能力。

MCP SSE 代理服务器

提供基于 SSE 的代理层,连接并远程执行 MCP 服务器,支持共享/独立会话。

Streamable HTTP MCP Server (TypeScript)

基于 Model Context Protocol 和 Streamable HTTP 协议的服务器端实现,使用 TypeScript 开发,提供资源管理、工具注册和 Prompt 模板等核心 MCP 功能。

MCP认证参考服务器

本仓库提供了一系列参考服务器,演示了如何为MCP服务器实现身份验证,保障LLM客户端安全访问上下文信息和功能。

Coral Agent通信服务器

Coral Server是一个MCP服务器,为AI Agent提供线程消息通信工具,支持Agent注册、会话管理和消息传递。

模型上下文管理服务器

基于Model Context Protocol的后端服务,提供会话管理、上下文存储和AI模型查询等核心功能,简化LLM应用开发流程。

安全SSE MCP服务器

基于Node.js和MCP SDK构建,提供JWT认证的安全SSE传输MCP服务器,支持动态工具注册和会话管理。

Ollama Desktop API

Ollama Desktop API 为桌面应用提供 AI 模型服务,集成 MCP 协议,支持工具扩展和会话管理。

MCP Catie 代理服务器

轻量级MCP代理服务器,根据请求内容动态路由JSON-RPC请求到后端服务,提供会话管理和监控等功能。

Gemini Context MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,利用 Gemini 的强大能力提供上下文管理和 API 缓存,优化 LLM 应用的效率和成本。

DB MCP Server

数据库MCP服务器,为LLM客户端提供数据库操作工具和上下文信息,简化数据库集成。

mcp servers

提供会话管理和任务管理的MCP服务器集合,增强LLM应用的状态保持和任务自动化能力。

inoyu mcp unomi server

基于Model Context Protocol的Unomi服务器,通过Apache Unomi管理用户画像,为LLM客户端提供用户上下文信息和profile管理工具。

mcp server emojikey

该MCP服务器使用户能够通过emoji密钥跨会话保持一致的LLM交互风格,支持emoji密钥的存储、检索和历史记录管理功能。

Alec2435 python mcp

提供Python REPL环境的MCP服务器,支持LLM客户端执行Python代码并访问会话历史。

Tmux

Tmux MCP Server 是一个概念验证项目,它实现了 Model Context Protocol (MCP) 服务器,允许 LLM 客户端通过工具调用来控制和管理 Tmux 会话,例如运行 Tmux 命令。

Claude API

此项目是一个MCP服务器实现,旨在通过Model Context Protocol (MCP) 协议,为Claude桌面应用提供 Claude API 的集成能力,支持自定义系统提示、会话管理等高级功能,扩展了Claude桌面应用的功能。

Python REPL

提供Python交互式REPL环境的MCP服务器,允许LLM客户端执行Python代码并访问会话历史。

Room MCP

Room MCP 是一个基于 Model Context Protocol 的命令行工具,用于创建和管理虚拟房间,支持 LLM 客户端(如 Claude)在对等网络空间中与其他 Agent 协作完成目标。

Journaling Server

Journaling Server 是一个基于 MCP 协议的个人日记服务器,能够记录用户对话,进行情感分析,并提供最近日记的访问接口,方便 LLM 应用集成和调用。

Enhanced SSH

Enhanced SSH 仓库提供基于MCP协议的增强型SSH服务器和工具集合,支持安全远程命令执行、上下文感知工具调用和统一上下文管理,为LLM应用提供可扩展的后端服务框架。