基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和提示模板等上下文能力,面向 LLM 客户端以标准化的 JSON-RPC 形式进行交互,支持多传输协议并实现会话管理与能力声明。
基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源管理、工具执行与提示模版渲染等上下文服务,支持会话管理与多传输协议。
基于 Model Context Protocol 的 MCP 后端,为大语言模型提供上下文资源、工具调用和提示模板渲染等能力,支持 JSON-RPC 通信及多传输协议扩展,内置浏览器自动化与会话/缓存等核心模块。
基于 Model Context Protocol (MCP) 的后端服务器,为大模型客户端提供统一的资源、工具和提示的对话上下文服务,集成 Kernel 平台的浏览器自动化和应用执行能力,并通过 OAuth2 进行安全鉴权与授权。
面向大语言模型的后端MCP服务器,实现通过JSON-RPC向LLM客户端提供资源、工具和Prompt相关的上下文服务,支持跨GitHub、Jira、Confluence的数据获取与操作,以及会话管理与多传输协议接入的能力。
基于模型上下文协议(MCP)的后端服务,实现资源、工具及提示模板的注册、执行与管理,提供 JSON-RPC 通信能力,便于让大语言模型客户端通过 MCP 调用 Databricks 作业等功能。
基于 FastAPI 的服务器端实现,将任意基于 Model Context Protocol (MCP) 的服务暴露为标准的 HTTP/JSON 接口,向语言模型客户端提供资源数据、工具调用、提示模板等上下文能力,并具备多租户会话、OAuth 安全、令牌管理与流式输出等企业特性。它实现了 MCP 的核心组件组合与对外暴露的服务入口,便于整合到企业微服务架构中。
基于 Model Context Protocol (MCP) 的后端实现,提供策略评估、计费意图创建与使用计量等工具,通过 JSON-RPC 与 LLM 客户端交互,支持多种传输方式,作为 AI 代理上下文服务的核心服务器组件。
基于模型上下文协议(MCP)的后端实现,提供资源(Resources)托管、工具(Tools)注册与执行,以及 Prompts 定义与渲染,并通过 SSE/stdio 等传输方式与 LLM 客户端以 JSON-RPC 风格进行通信的完整 MCP 服务器实现。
基于 Model Context Protocol (MCP) 的 Java 实现的 MCP 服务器端,提供对资源、工具、提示的注册与执行,以及会话管理与多传输协议(REST/Servlet/SSE、Streamable HTTP)的支持,通过 JSON-RPC 与客户端进行通信。
基于 Model Context Protocol (MCP) 的后端上下文服务实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等能力,通过 JSON-RPC 与客户端通信,支持标准传输(如 Stdio 传输)以提供对话上下文和外部功能的统一访问。
基于 Model Context Protocol 的 MCP 服务器实现,提供对 Sirchmunk 的资源托管、工具注册与执行,以及提示模板渲染等能力,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文与功能服务。
基于模型上下文协议(MCP)的后端实现,用于向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染等能力,并通过 JSON-RPC/WebSocket 等传输协议进行通信。本仓库包含完整的服务端实现、工具暴露、Prompts 加载与渲染、会话管理以及安全策略,能够作为可运行的 MCP 服务器端提供上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/管理、Prompt 的定义与渲染,以及会话管理与协议能力声明,支持通过标准输入输出或流式 HTTP 等传输协议与客户端进行 JSON-RPC 通信,用于为大型语言模型(LLM)提供上下文信息与外部功能访问能力。
基于 MCP(Model Context Protocol)的后端服务,提供通过 JSON-RPC 与 LLM 客户端进行交互的能力,允许对工具进行注册与执行、获取项目状态与排行榜等,并通过标准传输(如 STDIO)实现与 Claude/GPT 等客户端的无缝对接。
基于 Model Context Protocol (MCP) 的后端实现,作为对话型LLM客户端的后端服务,托管并管理资源(Resources)、注册与执行工具(Tools)、定义并渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输方式,提供会话管理和能力声明的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供多智能体协作、资源与工具管理、Prompts 定义与渲染等能力,并通过 JSON-RPC 与客户端通信(当前实现以 Stdio 传输为主)。该服务器承担会话管理、能力声明、工具注册与执行、以及任务编排等核心职责,支持扩展的工具集和工作流模板,适合为 LLM 客户端提供标准化的上下文服务。 jovens
基于 MCP(Model Context Protocol)的后端服务器实现,提供资源管理、工具执行与上下文提示渲染等能力,支持 LLM 客户端以标准化的 JSON-RPC/HTTP 方式进行通信与协作。
基于 Model Context Protocol (MCP) 的后端服务器实现,为多租户 CRM 提供资源、工具与提示模板的上下文服务,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多单位配置与安全访问。
基于 MCP 协议的 Claude Desktop 集成后端,为 MTG CardForge 提供资源、工具和提示模板等上下文服务,用于向 LLM 客户端提供统一的数据访问、工具执行和对话模板渲染能力。
基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文、资源、工具与提示模板,并通过 JSON-RPC/WebSocket 实现 MCP 通信与扩展能力,支持会话管理、权限控制与多传输协议接入。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的托管与管理、工具注册与执行、以及 Prompt 模板的渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议扩展。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具和 Prompts 的统一访问与渲染能力,支持通过标准化的 JSON-RPC 进行通信,并可通过 STDIO 等传输通道接入。
在 Unity 编辑器内原生实现的 MCP 服务器,提供 Resource、Tools、Prompts 等模块的后端能力,允许通过 JSON-RPC 风格的命令注册与执行,与 LLM 客户端进行上下文和功能交互,支持多种传输方式(如 Stdio、SSE、WebSocket)并包含安全与生命周期管理。