基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具与提示模板的标准化暴露,支持 HTTP 流式传输与 stdio 传输等多种传输方式,供各类 LLM 客户端(如 Claude Desktop、VS Code Copilot、OpenWebUI 等)进行工具调用与上下文查询。
基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器向 LLM 客户端暴露 Helicone 的数据资源与工具,并通过 JSON-RPC 进行通信;当前实现注册了若干工具(如 query_requests、query_sessions、use_ai_gateway),实现了通过标准输入/输出的传输(Stdio)运行方式,以供 LLM 客户端调用与交互。
一个基于 Model Context Protocol (MCP) 的服务器,为 AI 助手(如 Claude)提供 ChromaDB 向量数据库的远程访问和语义搜索能力。
通过Docker在macOS上快速搭建可查询Supabase PostgreSQL数据库的MCP服务器,简化LLM应用的数据访问。