基于 Model Context Protocol 的 MCP 服务器实现,作为后端中间层对接 LLM 客户端与 odd-ssg 适配器,提供资源管理、工具注册与执行,以及基于模板的提示渲染能力,通过 JSON-RPC 与客户端通信。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,为多租户 CRM 提供资源、工具与提示模板的上下文服务,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多单位配置与安全访问。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,以及面向 LLM 客户端的标准化上下文服务,支持通过 HTTP/SSE 和 STDIO 传输进行 JSON-RPC 通信,并具备会话管理、能力声明和跨会话持久化能力,用于实现大规模的多代理协同工作流。
基于 MCP 协议的 Claude Desktop 集成后端,为 MTG CardForge 提供资源、工具和提示模板等上下文服务,用于向 LLM 客户端提供统一的数据访问、工具执行和对话模板渲染能力。
基于 Model Context Protocol 的 MCP 后端服务器,实现资源与工具的管理,并通过 JSON-RPC 接口与 LLM 客户端进行交互,支持多工具与内容生成功能。
基于模型上下文协议(MCP)的服务器实现,向LLM客户端提供ATLAS Central Page的资源、工具与提示模板的统一访问接口,支持JSON-RPC风格请求/响应,以及多传输模式(如STDIO、HTTP)以服务化LLM上下文信息和能力查询。
基于 Model Context Protocol (MCP) 的邮件上下文后端,为大模型/LLM 客户端提供资源访问、工具执行和提示渲染能力;通过 JSON-RPC 与客户端通信,支持在本地Outlook 环境中进行邮件加载、查询、撰写与批量转发等操作,并提供服务端会话管理与工具注册机制。该实现面向在 Windows 上使用 Outlook 的场景,核心目的是为 LLM 应用提供可扩展、可控的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染等能力,并通过 JSON-RPC 风格接口向 LLM 客户端暴露上下文与功能。服务器支持多种传输形式(HTTP)、会话管理、能力声明,以及可拓展的工具与资源生态,提升大模型在编码协作中的上下文服务能力。
基于模型上下文协议的多云云资源管理后端,聚合 AWS、GCP、Azure、DigitalOcean 等云提供商的工具接口,并通过 JSON-RPC 与大语言模型客户端协作,提供工具执行、资源访问与上下文服务。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的标准化管理与执行,并通过 JSON-RPC 与客户端进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket/HTTP)以实现对本地资源、外部能力和交互场景的可扩展上下文服务。
基于 Model Context Protocol (MCP) 的服务器实现,提供资源管理、工具注册/执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 方式与客户端通信,支持多种传输形式,适用于在本地环境中对 LLM 客户端提供上下文与功能服务。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具和 Prompts 的统一访问与渲染能力,支持通过标准化的 JSON-RPC 进行通信,并可通过 STDIO 等传输通道接入。
在 Unity 编辑器内原生实现的 MCP 服务器,提供 Resource、Tools、Prompts 等模块的后端能力,允许通过 JSON-RPC 风格的命令注册与执行,与 LLM 客户端进行上下文和功能交互,支持多种传输方式(如 Stdio、SSE、WebSocket)并包含安全与生命周期管理。
基于 Model Context Protocol (MCP) 的服务器实现模板集,提供多种工具服务(如日期与时间、计算等)以及标准的 MCP 资源与工具暴露,适合通过标准传输(如 stdio)向 LLM 客户端提供上下文、工具执行和模板化 Prompt 的后端能力。