找到 6 个结果
基于 Model Context Protocol (MCP) 构建的后端服务器,为大语言模型客户端提供规范化的资源管理、工具注册与执行、以及可渲染的 Prompt 模板等上下文服务,支持 JSON-RPC 通信、会话管理与多传输通道。
基于 Model Context Protocol (MCP) 的后端实现,提供服务器端工具注册、跨模型查询以及服务器端函数发现与调用的 JSON-RPC 服务,支持通过 STDIO 等传输方式与客户端交互。
基于 Model Context Protocol 的本地 MCP 服务器实现,提供工具调用、资源访问和提示模板的统一接口,连接本地 IDE 与大型语言模型客户端。
基于 Model Context Protocol (MCP) 的后端服务器实现,为多租户 CRM 提供资源、工具与提示模板的上下文服务,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多单位配置与安全访问。
基于 Model Context Protocol 的 MCP 服务器,桥接大语言模型(LLM)客户端与 Eclipse SUMO 交通仿真平台,提供资源、工具、提示模板等统一访问接口,通过 JSON-RPC 进行通信,支持多种传输方式(如标准输入输出、SSE、WebSocket),实现对 SUMO 的离线与在线控制、工作流自动化等功能。
通过 MCP 协议让 AI 助手获取 Canvas LMS 数据