基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式暴露资源管理、工具执行以及提示模板的能力,核心通过 registerTool 将大量 Google Workspace 相关操作暴露为可调用的工具集,支持以 Stdio 传输等多种通信方式进行上下文服务与会话管理。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 与 LLM 客户端进行上下文与功能交互,部署在 Cloudflare Workers 中以实现安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务,向大型语言模型(LLM)客户端提供 Griffin API 的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持 STDIO 传输等多种传输方式,帮助在对话中访问和操作银行相关数据。
基于 Model Context Protocol (MCP) 的后端服务实现,提供可供大模型(LLM)客户端查询的任务、仓库、项目等上下文与执行能力,通过 JSON-RPC 风格的 MCP 通信,将后端数据与功能暴露给 LLM 客户端使用,并支持通过标准的 MCP 服务器接口执行工具与任务流程。
基于 Model Context Protocol(MCP)的服务器端实现示例集合,展示如何暴露工具、资源与 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,涵盖多种 MCP 服务端实现与用法,适合作为后端上下文服务的参考实现。
一个功能全面的模型上下文协议 (MCP) 服务器,通过标准化接口,让大型语言模型 (LLM) 客户端能够无缝访问和管理 CustomGPT 智能体及其数据。