基于 Model Context Protocol 的后端服务,向大语言模型客户端提供圣经经文、原文字词、注释及文章等资源的标准化访问与上下文服务,通过 JSON-RPC 进行通信,支持多传输模式、会话管理与能力声明。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的托管与管理、工具注册与执行、以及 Prompt 模板的渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议扩展。
基于 Model Context Protocol (MCP) 的后端服务端实现,作为 MCP 服务器向大语言模型客户端提供标准化的资源管理、工具注册/执行以及 Prompt 模板渲染等能力,使用 JSON-RPC 进行通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)以满足多样化上下文服务需求。
一个基于Model Context Protocol的MCP服务器,允许Claude Code主会话通过iTerm2生成和管理多个Claude Code工作会话,实现并行开发工作流。
一个可扩展的AI Agent运行时后端,通过Model Context Protocol (MCP) 和A2A协议暴露AI Agent能力,提供工具调用、上下文管理和会话交互服务。
一个基于Model Context Protocol (MCP) 的后端服务,将OpenAI Codex CLI的能力集成到Claude等LLM客户端中,提供AI编程助手功能。
一个基于Python的MCP服务器框架,提供持久化会话、工具和资源管理,支持服务器重启后安全地恢复LLM交互。
基于 Model Context Protocol 和 Streamable HTTP 协议的服务器端实现,使用 TypeScript 开发,提供资源管理、工具注册和 Prompt 模板等核心 MCP 功能。
基于Model Context Protocol的Unomi服务器,通过Apache Unomi管理用户画像,为LLM客户端提供用户上下文信息和profile管理工具。
此项目是一个MCP服务器实现,旨在通过Model Context Protocol (MCP) 协议,为Claude桌面应用提供 Claude API 的集成能力,支持自定义系统提示、会话管理等高级功能,扩展了Claude桌面应用的功能。