基于 Model Context Protocol (MCP) 的后端服务,用于向大语言模型(LLM)及其代理提供资源数据、可执行工具以及可定制的 prompts,支持通过 JSON-RPC 与客户端通信,并可通过 stdio、SSE 等传输协议进行多会话场景下的上下文服务整合。该实现整合了 StreamNative Cloud、Apache Kafka 和 Apache Pulsar 等资源与能力,便于 AI 应用访问和操作海量分布式系统。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。
基于 Model Context Protocol (MCP) 的后端服务,实现了资源管理、工具注册与执行以及提示渲染等核心 MCP 功能,提供将 JSON 转换为 CSV 的工具与相关提示,用于向大型语言模型(LLM)客户端提供上下文与外部功能调用能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。
这是一个MCP(Model Context Protocol)服务器,能够为AI智能体提供Azure Terraform模块的索引、高级分析、代码搜索和管理服务。
提供Python、Go、Rust三种语言实现的生产级Model Context Protocol (MCP) 服务器,旨在标准化AI系统与工具间的交互,支持VS Code集成。
基于Python实现模型上下文协议(MCP)服务器,提供文档搜索工具功能,支持Stdio和SSE传输协议。
使用PostgreSQL和pgvector为AI应用提供向量记忆存储和语义搜索的MCP服务器。