← 返回首页

"prompts"标签的搜索结果

找到 3 个结果

Orderly Network MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向LLM客户端提供资源管理、工具执行和提示模板等上下文信息,支持多传输协议(如 Stdio、HTTP/WebSocket),通过 JSON-RPC 进行请求-响应交互。该实现覆盖资源、工具、Prompts 的注册、查询与渲染,以及会话管理与安全能力声明等核心功能,构成可扩展的对话上下文服务框架。

Axiom MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端通过标准化的 JSON-RPC 方式提供资源、工具与提示模板等上下文信息,并支持开发/生产两种模式、以及通过标准传输通道进行通信。

aimem MCP 服务器

基于 Model Context Protocol (MCP) 的本地化上下文服务后端,实现对资源、工具和提示模板的托管与管理,供 LLM 客户端通过 JSON-RPC 调用以获取上下文、执行工具与渲染提示模板。