基于 Model Context Protocol 的多传输 MCP 服务器,提供 Google Play 与 Apple App Store 的数据资源、工具执行以及提示模板等能力,以 JSON-RPC 与 LLM 客户端标准化交互,支持 HTTP、SSE 等传输协议。
基于 Model Context Protocol 的 MCP 后端,为大语言模型提供上下文资源、工具调用和提示模板渲染等能力,支持 JSON-RPC 通信及多传输协议扩展,内置浏览器自动化与会话/缓存等核心模块。
基于 Model Context Protocol (MCP) 的完整后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 与 LLM 客户端通信,支持 Godot 引擎与编辑器插件的桥接执行,满足在多传输通道下的上下文服务需求。
基于 Model Context Protocol 的后端服务,使用 OpenCage 地理编码 API 提供正向/反向地理编码和 API 使用状态查询,并通过 JSON-RPC 与 MCP 客户端进行交互。
基于模型上下文协议(Model Context Protocol, MCP)的服务器实现,提供对 GitHub 相关资源的访问与工具执行能力,并通过 JSON-RPC 与客户端进行通信,支持以 STDIO 传输进行交互的实际服务器实现。
基于 Model Context Protocol(MCP)的后端服务器,实现对哈尔科夫地铁路线、时刻表、站点等资源的托管与访问,并通过 JSON-RPC 与 LLM 客户端进行交互,提供路由查询、日程、站点列表以及站名查找等工具。
基于 Model Context Protocol(MCP)的后端服务器,向大模型客户端提供资源管理、工具注册/执行和提示渲染等能力,并通过 JSON-RPC 与客户端通信,支持多种传输模式与会话管理。
基于 Model Context Protocol (MCP) 的后端服务器,为语言模型客户端提供 Google Play Store 的应用发现、详情、评价、关键词建议以及元数据校验等能力,具备代理轮换、会话管理和多工具接口,当前实现为可运行的原型。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供资源、工具及提示模板的托管、注册与执行,采用 JSON-RPC 进行通信,并具备会话管理与能力声明。该服务器封装了指标计算工具集的对接入口,允许通过 MCP 客户端灵活读取工具信息、执行单/多项指标、获取指标详情等能力。
基于 Model Context Protocol (MCP) 的 Photoshop 后端实现,提供将资源、工具执行能力和提示模板等以标准化 JSON-RPC 形式暴露给 LLM 客户端的后台服务,能够在 MCP 客户端与 Photoshop 的 UXP 环境之间进行交互、执行脚本、读取模式与架构信息并返回结果。
基于 Model Context Protocol (MCP) 的后端实现,提供策略评估、计费意图创建与使用计量等工具,通过 JSON-RPC 与 LLM 客户端交互,支持多种传输方式,作为 AI 代理上下文服务的核心服务器组件。
基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端以标准化方式提供 Direct、Metrica、Wordstat、Audience 等资源、工具和提示模板,支持 JSON-RPC 通信、会话管理、能力声明,以及多种传输模式(如 Stdin/Stdout、SSE、WebSocket)的上下文服务。
基于 Model Context Protocol 的本地文档服务端,结合离线索引的 Apple 文档,向 AI 客户端提供资源、工具与提示模板的 JSON-RPC 服务。
基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 方式暴露 Home Assistant 的资源、工具与提示模板,支持通过 MCP 客户端调用读取实体、执行服务、管理排程等功能。
基于 Model Context Protocol 的后端服务实现,提供资源托管、工具执行、以及提示模板渲染等能力,支持通过 JSON-RPC 与大语言模型客户端进行资源读取、外部功能调用、以及上下文管理等交互。服务器端提供 STDIO 传输的 JSON-RPC 服务,并可选搭建 HTTP 调试接口,适合将本地上下文服务嵌入到 AI 助手工作流中,便于对接 Kubernetes 资源、CRD、以及服务器端的 dry-run 验证等功能。
基于 Model Context Protocol 的 MCP 服务器实现,提供对网络设备的上下文化访问、工具执行、状态快照等能力;通过 JSON-RPC 与客户端通信,管理资源、注册工具并渲染提示模板,支撑多设备的自动化和 Troubleshooting 场景。
基于模型上下文协议(MCP)的后端服务器,实现资源/工具/提示模板的托管与对外能力暴露,支持 JSON-RPC 请求、SSE 实时传输和会话管理,为 LLM 客户端提供标准化的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 形式暴露资源、工具和提示,提供会话管理、能力声明、工具注册与执行,以及对多种传输协议的支持,构建可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务,把 Form.io 表单、资源和工具以标准化的 JSON-RPC 形式暴露给大型语言模型客户端,提供资源托管、工具注册/执行、Prompt 模板渲染等能力,并通过多种传输方式(HTTP 流、SSE、WebSocket 等)实现与客户端的通信。
基于 Model Context Protocol (MCP) 的后端服务器,提供标准化的上下文服务给 LLM 客户端。该服务器托管和管理用于取证分析的资源与数据访问能力、注册并执行工具以调用外部功能,并定义与渲染可定制的 Prompt 模板,支持 JSON-RPC 通信、会话管理以及多传输协议扩展,为跨平台取证分析与 AI 辅助分析提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的服务端实现,提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与 LLM 客户端通信,管理会话与能力声明,并具备多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,用于对接外部数据源、工具和上下文提示等,实现对 LLM 的上下文服务提供与编排。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大模型客户端以标准化方式提供 Electron 应用的上下文、资源、工具与提示模板,具备 JSON-RPC 通信、会话管理,并可通过 Stdio、SSE、WebSocket 多种传输协议进行交互;集成 Chrome DevTools Protocol (CDP) 实现对 Electron 应用的自动化与调试支撑。
基于 Model Context Protocol 的 MCP 服务器实现,作为后端中间层对接 LLM 客户端与 odd-ssg 适配器,提供资源管理、工具注册与执行,以及基于模板的提示渲染能力,通过 JSON-RPC 与客户端通信。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,为多租户 CRM 提供资源、工具与提示模板的上下文服务,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多单位配置与安全访问。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,以及面向 LLM 客户端的标准化上下文服务,支持通过 HTTP/SSE 和 STDIO 传输进行 JSON-RPC 通信,并具备会话管理、能力声明和跨会话持久化能力,用于实现大规模的多代理协同工作流。
基于 MCP 协议的 Claude Desktop 集成后端,为 MTG CardForge 提供资源、工具和提示模板等上下文服务,用于向 LLM 客户端提供统一的数据访问、工具执行和对话模板渲染能力。
基于 Model Context Protocol 的 MCP 后端服务器,实现资源与工具的管理,并通过 JSON-RPC 接口与 LLM 客户端进行交互,支持多工具与内容生成功能。
基于模型上下文协议(MCP)的服务器实现,向LLM客户端提供ATLAS Central Page的资源、工具与提示模板的统一访问接口,支持JSON-RPC风格请求/响应,以及多传输模式(如STDIO、HTTP)以服务化LLM上下文信息和能力查询。
基于 Model Context Protocol (MCP) 的邮件上下文后端,为大模型/LLM 客户端提供资源访问、工具执行和提示渲染能力;通过 JSON-RPC 与客户端通信,支持在本地Outlook 环境中进行邮件加载、查询、撰写与批量转发等操作,并提供服务端会话管理与工具注册机制。该实现面向在 Windows 上使用 Outlook 的场景,核心目的是为 LLM 应用提供可扩展、可控的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染等能力,并通过 JSON-RPC 风格接口向 LLM 客户端暴露上下文与功能。服务器支持多种传输形式(HTTP)、会话管理、能力声明,以及可拓展的工具与资源生态,提升大模型在编码协作中的上下文服务能力。
基于模型上下文协议的多云云资源管理后端,聚合 AWS、GCP、Azure、DigitalOcean 等云提供商的工具接口,并通过 JSON-RPC 与大语言模型客户端协作,提供工具执行、资源访问与上下文服务。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的标准化管理与执行,并通过 JSON-RPC 与客户端进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket/HTTP)以实现对本地资源、外部能力和交互场景的可扩展上下文服务。
基于 Model Context Protocol (MCP) 的服务器实现,提供资源管理、工具注册/执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 方式与客户端通信,支持多种传输形式,适用于在本地环境中对 LLM 客户端提供上下文与功能服务。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具和 Prompts 的统一访问与渲染能力,支持通过标准化的 JSON-RPC 进行通信,并可通过 STDIO 等传输通道接入。
在 Unity 编辑器内原生实现的 MCP 服务器,提供 Resource、Tools、Prompts 等模块的后端能力,允许通过 JSON-RPC 风格的命令注册与执行,与 LLM 客户端进行上下文和功能交互,支持多种传输方式(如 Stdio、SSE、WebSocket)并包含安全与生命周期管理。
基于 Model Context Protocol (MCP) 的服务器实现模板集,提供多种工具服务(如日期与时间、计算等)以及标准的 MCP 资源与工具暴露,适合通过标准传输(如 stdio)向 LLM 客户端提供上下文、工具执行和模板化 Prompt 的后端能力。