基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。
基于 Model Context Protocol (MCP) 的后端服务,实现了资源管理、工具注册与执行以及提示渲染等核心 MCP 功能,提供将 JSON 转换为 CSV 的工具与相关提示,用于向大型语言模型(LLM)客户端提供上下文与外部功能调用能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。
这是一个MCP(Model Context Protocol)服务器,能够为AI智能体提供Azure Terraform模块的索引、高级分析、代码搜索和管理服务。
提供Python、Go、Rust三种语言实现的生产级Model Context Protocol (MCP) 服务器,旨在标准化AI系统与工具间的交互,支持VS Code集成。
基于Python实现模型上下文协议(MCP)服务器,提供文档搜索工具功能,支持Stdio和SSE传输协议。
使用PostgreSQL和pgvector为AI应用提供向量记忆存储和语义搜索的MCP服务器。