← 返回首页

"Prompts"标签的搜索结果

找到 7 个结果

Echo Noise MCP 服务端实现

基于模型上下文协议(MCP)的后端实现,提供资源、工具与 Prompt 的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket)以及会话与能力声明,并可通过 MCP 客户端接入扩展能力。该仓库在后端 Go 语言实现了核心服务,并在 README 提供了配套的 MCP 客户端服务(MCP 服务器端 bundles/示例及接入文档)。

IronBase MCP 服务器

基于 Model Context Protocol 构建的后端服务实现,作为 MCP(Model Context Protocol)服务器向大型语言模型客户端提供结构化的资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染能力;通过 JSON-RPC 进行通信,并支持 HTTP/STDIO 等传输模式与会话管理、能力声明与访问控制等安全特性。

Edda MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现(集成于 Edda 框架),通过 JSON-RPC/多传输协议向 LLM 客户端暴露 durable workflows、资源和工具,并支持 Prompts 渲染,方便 AI 助手与后端工作流进行长期上下文交互和功能调用。

AdCP Sales Agent MCP Server

基于模型上下文协议(Model Context Protocol, MCP)的后端服务器,向大型语言模型(LLM)客户端以标准化方式提供资源数据、工具执行能力和可渲染的提示模板,支持多租户、会话管理以及通过 JSON-RPC 与客户端通信的上下文服务框架,适用于广告投放场景的自动化协作与执行。

Identity MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板的托管与管理,并通过 MCP 协议向 LLM 客户端暴露上下文服务、数据访问与外部功能调用能力。支持多种传输方式(HTTP/JSON-RPC、SSE、WebSocket/流式)以及多用户隔离。

NCP - 自然上下文提供者 MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供统一的资源管理、工具注册/执行以及 Prompt 模板的定义和渲染,能够通过 JSON-RPC 与 LLM 客户端进行交互,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理、能力声明及健康监控等扩展能力。

EdgarTools MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文资源、可注册的工具以及可渲染的 Prompt 模板。通过 JSON-RPC 与客户端通信,支持会话管理、能力宣告,以及多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,适配 Claude 等 AI 助手的上下文服务需求。