← 返回首页

"流式传输"标签的搜索结果

找到 8 个结果

Zotero MCP 集成服务器

基于 Model Context Protocol 的本地 MCP 服务器实现,集成到 Zotero 插件中,向 AI 客户端提供资源、工具和提示等上下文服务,并支持 Streamable HTTP 传输。

Memory Knowledge Graph MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供知识图谱资源管理、工具执行、以及提示模板渲染等功能,通过 JSON-RPC/流式传输与大型语言模型客户端进行交互。

MCP Nim SDK 服务器实现

基于 Nim 的 MCP 服务器实现,提供资源、工具、提示模板等管理,支持多种传输协议(stdio、SSE、HTTP/Streamable、InMemory),并通过 JSON-RPC 与客户端进行请求与响应通信。

Flask-MCP-Plus

基于 Flask 的 MCP 服务器实现,提供工具、资源、提示等接口,支持 JSON-RPC 风格的请求/响应以及流式传输,便于向大模型客户端提供上下文信息和外部功能接入。

VidCap YouTube API MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,作为 VidCap YouTube API 的上下文服务提供方,管理资源与工具,支持 JSON-RPC 的请求/响应,并通过 STDIO、流式 HTTP/WebSocket 等传输方式与 MCP 客户端进行交互,便于 AI 助手在对话中获取视频数据、执行外部功能和渲染提示模板。

Lunar MCP Server Kit

基于 Model Context Protocol(MCP)的后端服务器实现示例,提供资源/工具管理、工具执行以及面向 LLM 的上下文渲染能力,展示了如何用 MCPX 服务器核心实现 JSON-RPC 风格的请求/响应,并支持多种传输方式(如标准输入输出、SSE、HTTP 流等)。

Fastify MCP 服务器插件

将 Fastify 应用转变为高性能、可流式传输的 MCP 服务器,支持 AI 助手安全连接外部数据和工具。

FastAPI MCP Example Server

一个简单的FastAPI服务器,演示了基于模型上下文协议(MCP)的功能,通过SSE流式传输,为LLM交互提供示例工具。