← 返回首页

"多传输协议"标签的搜索结果

找到 17 个结果

Converse MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 Stdio、SSE、WebSocket)以构建面向 LLM 的上下文服务框架。

PatternFly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,提供 PatternFly 的资源、工具与文档的统一上下文服务,支持多传输协议(STDIO、HTTP/WebSocket 等)、会话管理与能力声明,水平扩展以供 LLM 客户端获取资源、执行工具和渲染 Prompt 模板等上下文信息。

Jira MCP 服务器(基于 MCP 协议的 Jira 集成后端)

一个将 Jira 实例与大型语言模型客户端连接的后端服务,基于 Model Context Protocol (MCP),提供资源、工具和提示模板的统一访问,并支持 STDIO 与 SSE 多传输协议,便于 AI 应用以标准化方式获取上下文信息与 Jira 相关操作能力。

Knowledge Agent MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,用于向 LLM 客户端提供资源、工具和提示模板的标准化上下文与功能服务,支持多传输协议并通过 JSON-RPC 进行通信。

Chak-MCP 服务器实现与示例

基于 Model Context Protocol(MCP)的服务器实现与示例生态,提供可运行的 MCP 服务器示例、工具暴露与管理,以及用于客户端接入的工具库,帮助构建以 MCP 为载体的上下文服务后端。

You.com MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册、资源管理和内容/搜索相关能力,支持通过 JSON-RPC 与客户端通信,涵盖 STDIO 与 HTTP 两种传输方式的 MCP 服务端实现。

Thanos MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化的 JSON-RPC 方式向 LLM 客户端提供资源管理、工具注册/执行以及 Prompts 渲染等能力,并支持多传输协议(如 Stdio、SSE、WebSocket),实现会话管理、能力声明和可扩展的上下文服务框架。

mockd MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器,实现对资源、工具和提示模板的统一管理与渲染,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议以适配不同应用场景。

xsql MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对 AI 客户端的上下文能力、工具执行与提示渲染等核心能力,通过 JSON-RPC 与客户端通信,并支持多传输协议(如标准输入输出和流式 HTTP)以实现安全、可扩展的后端上下文服务。

GitHub Agentic Workflows MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文、数据访问和外部功能调用能力。

Path402 MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为对话型LLM客户端的后端服务,托管并管理资源(Resources)、注册与执行工具(Tools)、定义并渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输方式,提供会话管理和能力声明的上下文服务框架。

Agently-MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供资源、工具与提示模板等上下文信息与功能,支持多传输协议、会话管理与认证,目标是为 LLM 客户端提供可扩展、安全的上下文服务框架。

Autobyteus MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染,支持通过 JSON-RPC 与客户端通信,并具备会话管理与多传输协议(如 Stdio、SSE、WebSocket)扩展能力,为大语言模型(LLM)应用提供安全、可扩展的上下文服务框架。

Super AI Plugin Hub

基于 Model Context Protocol (MCP) 的服务器端框架,聚合、管理资源与工具,并通过 JSON-RPC 将上下文、工具与提示暴露给 LLM 客户端,同时支持本地与远程 MCP 服务器的代理与协作。

CC-Switch MCP 服务器实现

基于模型上下文协议(MCP)的服务器端实现,提供资源托管、工具注册/执行以及 Prompts 定义与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式并具备会话管理与跨应用的 MCP 服务器管理能力。

Peta MCP 服务器集合

基于 Model Context Protocol 的完整 MCP 服务器集合,覆盖 Google Drive、PostgreSQL、Notion、Figma、Google Calendar、GitHub、Zendesk 等多服务工具与资源托管,支持 JSON-RPC 通信、STDIO/REST 网关等传输方式,提供资源管理、工具注册与 Prompts 渲染等能力,便于与 LLM 客户端在同一后端进行上下文与功能扩展。

EdgarTools MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文资源、可注册的工具以及可渲染的 Prompt 模板。通过 JSON-RPC 与客户端通信,支持会话管理、能力宣告,以及多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,适配 Claude 等 AI 助手的上下文服务需求。