← 返回首页

"自托管"标签的搜索结果

找到 8 个结果

Ragtime 服务器端(MCP 服务实现)

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具与提示模板的标准化暴露,支持 HTTP 流式传输与 stdio 传输等多种传输方式,供各类 LLM 客户端(如 Claude Desktop、VS Code Copilot、OpenWebUI 等)进行工具调用与上下文查询。

Helicone MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器向 LLM 客户端暴露 Helicone 的数据资源与工具,并通过 JSON-RPC 进行通信;当前实现注册了若干工具(如 query_requests、query_sessions、use_ai_gateway),实现了通过标准输入/输出的传输(Stdio)运行方式,以供 LLM 客户端调用与交互。

模板化 MCP 服务器集合

一个面向大型语言模型的 MCP 服务器模板仓库,提供多达17种独立的 MCP 服务器及底层核心组件,支持资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端进行通信,适合本地自托管和容器化部署。

ChromaDB 远程 MCP 服务器

一个基于 Model Context Protocol (MCP) 的服务器,为 AI 助手(如 Claude)提供 ChromaDB 向量数据库的远程访问和语义搜索能力。

revect: 个人记忆向量库

revect 是一个自托管的个人记忆和知识库,支持语义搜索,并可通过 MCP 协议与 AI 工具无缝集成。

Self-Hosted Supabase MCP 服务器

连接自托管 Supabase 实例的应用后端,为 LLM 客户端提供数据库、认证、存储等操作能力。

MetaMCP App (自托管)

MetaMCP App提供自托管GUI,用于管理和配置多个MCP服务器,支持资源、工具和Prompt模板,作为MCP客户端代理入口。

Supabase自托管MCP服务器

通过Docker在macOS上快速搭建可查询Supabase PostgreSQL数据库的MCP服务器,简化LLM应用的数据访问。