← 返回首页

"Prompts"标签的搜索结果

找到 14 个结果

CKAN MCP 服务器实现

基于 Model Context Protocol (MCP) 的 CKAN MCP 服务器实现,向 MCP 客户端提供资源托管、工具注册、Prompts、以及基于 CKAN 的数据检索与分析等功能,并通过 JSON-RPC 进行跨客户端的上下文服务交互,支持多传输通道(stdio、HTTP 等)以适应不同部署场景。

Omni-Dev-Fusion MCP 服务器实现

基于 Model Context Protocol 的后端服务实现,提供资源、工具、Prompts 的注册与管理,并通过 JSON-RPC 与客户端通信,支持多传输协议(STDIO、SSE、WebSocket),实现会话管理和能力声明,用于为 LLM 客户端提供一致的上下文与功能服务。

Distr MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与访问、工具注册与调用、以及提示模板的定义与渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输方式(如 STDIO、HTTP、WebSocket 等),用于为大语言模型提供统一的上下文与功能服务。

Goodfoot MCP 服务器集合

基于 Model Context Protocol(MCP)的后端服务器集合,向大型语言模型客户端以标准化方式提供上下文信息与功能,包括托管资源、注册与执行工具,以及定义/渲染提示模板;支持多种传输协议(Stdio、SSE、HTTP),通过 JSON-RPC 与客户端通信,适用于 Claude Code 等工作流场景。

Veritas Kanban MCP 服务器

基于 Veritas Kanban 的 MCP 服务器实现,提供以 JSON-RPC 方式向 AI 助手/客户端暴露资源、工具、提示模板等上下文能力的后端服务,并支持多传输通道与会话管理。

HyperPod InstantStart MCP 服务端

基于 Model Context Protocol(MCP) 的后端服务器实现,提供资源管理、工具注册与调用、以及 Prompt 模板渲染等能力,供 LLM 客户端以标准化方式获取上下文、数据与外部功能。

BoxLang-MCP 服务器

基于 Model Context Protocol (MCP) 的 BoxLang 后端服务器实现,提供对 Resources、Tools 与 Prompts 的注册、管理与暴露,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 客户端提供标准化的上下文服务、会话与能力声明。

Echo Noise MCP 服务端实现

基于模型上下文协议(MCP)的后端实现,提供资源、工具与 Prompt 的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket)以及会话与能力声明,并可通过 MCP 客户端接入扩展能力。该仓库在后端 Go 语言实现了核心服务,并在 README 提供了配套的 MCP 客户端服务(MCP 服务器端 bundles/示例及接入文档)。

IronBase MCP 服务器

基于 Model Context Protocol 构建的后端服务实现,作为 MCP(Model Context Protocol)服务器向大型语言模型客户端提供结构化的资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染能力;通过 JSON-RPC 进行通信,并支持 HTTP/STDIO 等传输模式与会话管理、能力声明与访问控制等安全特性。

Edda MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现(集成于 Edda 框架),通过 JSON-RPC/多传输协议向 LLM 客户端暴露 durable workflows、资源和工具,并支持 Prompts 渲染,方便 AI 助手与后端工作流进行长期上下文交互和功能调用。

AdCP Sales Agent MCP Server

基于模型上下文协议(Model Context Protocol, MCP)的后端服务器,向大型语言模型(LLM)客户端以标准化方式提供资源数据、工具执行能力和可渲染的提示模板,支持多租户、会话管理以及通过 JSON-RPC 与客户端通信的上下文服务框架,适用于广告投放场景的自动化协作与执行。

Identity MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板的托管与管理,并通过 MCP 协议向 LLM 客户端暴露上下文服务、数据访问与外部功能调用能力。支持多种传输方式(HTTP/JSON-RPC、SSE、WebSocket/流式)以及多用户隔离。

NCP - 自然上下文提供者 MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供统一的资源管理、工具注册/执行以及 Prompt 模板的定义和渲染,能够通过 JSON-RPC 与 LLM 客户端进行交互,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理、能力声明及健康监控等扩展能力。

EdgarTools MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文资源、可注册的工具以及可渲染的 Prompt 模板。通过 JSON-RPC 与客户端通信,支持会话管理、能力宣告,以及多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,适配 Claude 等 AI 助手的上下文服务需求。