← 返回首页

"流式传输"标签的搜索结果

找到 12 个结果

oJob-common MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,提供通过 HTTP SSE/STDIO 传输的 JSON-RPC 风格接口,管理资源、注册与执行工具、定义与渲染提示模板,面向大语言模型(LLM)客户端提供标准化的上下文服务和功能调用能力。

FinanceServer MCP 后端

基于 Deno 的 MCP(模型上下文协议)服务端实现,提供用于 LLM 客户端的上下文资源、工具调用与提示模板等能力,支持多场景的 MCP 会话(如全局、账单/支出等),通过 JSON-RPC/流式传输与客户端进行交互,具备会话管理、能力声明以及多种传输协议的支持。该仓库不仅实现服务器端路由与会话,还对接了数据库、OAuth、以及 MCP 服务实例化等核心组件,形成完整的 MCP 服务端框架。

TestCollab MCP Server

基于 Model Context Protocol(MCP)的后端实现,向大语言模型客户端提供测试管理的上下文、资源、工具及提示模板渲染,并通过 JSON-RPC 的 MCP 协议与客户端进行通信与协作。

GH-AW MCP Gateway

基于 Model Context Protocol (MCP) 的后端网关实现,作为 MCP 服务器生态的核心网关,负责路由、聚合并管理后端 MCP 服务器,向 MCP 客户端提供一致的上下文、工具、资源等能力,并通过 Docker 容器或本地进程启动后端服务以实现 Stdio/HTTP 等传输模式和 JSON-RPC 通信。

Zotero MCP 集成服务器

基于 Model Context Protocol 的本地 MCP 服务器实现,集成到 Zotero 插件中,向 AI 客户端提供资源、工具和提示等上下文服务,并支持 Streamable HTTP 传输。

Memory Knowledge Graph MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供知识图谱资源管理、工具执行、以及提示模板渲染等功能,通过 JSON-RPC/流式传输与大型语言模型客户端进行交互。

MCP Nim SDK 服务器实现

基于 Nim 的 MCP 服务器实现,提供资源、工具、提示模板等管理,支持多种传输协议(stdio、SSE、HTTP/Streamable、InMemory),并通过 JSON-RPC 与客户端进行请求与响应通信。

Flask-MCP-Plus

基于 Flask 的 MCP 服务器实现,提供工具、资源、提示等接口,支持 JSON-RPC 风格的请求/响应以及流式传输,便于向大模型客户端提供上下文信息和外部功能接入。

VidCap YouTube API MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,作为 VidCap YouTube API 的上下文服务提供方,管理资源与工具,支持 JSON-RPC 的请求/响应,并通过 STDIO、流式 HTTP/WebSocket 等传输方式与 MCP 客户端进行交互,便于 AI 助手在对话中获取视频数据、执行外部功能和渲染提示模板。

Lunar MCP Server Kit

基于 Model Context Protocol(MCP)的后端服务器实现示例,提供资源/工具管理、工具执行以及面向 LLM 的上下文渲染能力,展示了如何用 MCPX 服务器核心实现 JSON-RPC 风格的请求/响应,并支持多种传输方式(如标准输入输出、SSE、HTTP 流等)。

Fastify MCP 服务器插件

将 Fastify 应用转变为高性能、可流式传输的 MCP 服务器,支持 AI 助手安全连接外部数据和工具。

FastAPI MCP Example Server

一个简单的FastAPI服务器,演示了基于模型上下文协议(MCP)的功能,通过SSE流式传输,为LLM交互提供示例工具。