基于 Model Context Protocol (MCP) 架构的后端服务器,提供开发者指南知识库的资源管理、工具注册和提示模板渲染,采用 JSON-RPC 通过 MCP 客户端进行交互,底层存储使用 Cloudflare 的 D1、R2 和向量数据库 Vectorize,部署在 Cloudflare Workers 上。
基于 Model Context Protocol (MCP) 的后端服务器,为 Claude Code 提供记忆资源管理、工具执行与提示渲染的标准化 JSON-RPC 服务,支持记忆的托管、检索、合成及核心记忆的持久化存储,并通过 LanceDB 提供可扩展的向量化语义检索能力。
基于 Model Context Protocol (MCP) 的服务器端实现,用于对代码项目进行上下文分析、向量化检索和外部工具调用的统一管理。通过 JSON-RPC 风格的 MCP 客户端通信,服务器端负责会话管理、能力声明,以及资源(向量/元数据)的托管、工具执行和 Prompt 模板的渲染。实现了完整的 MCP 服务端逻辑(8 个工具),并使用 ChromaDB 进行向量存储、OpenAI 模型进行代码分析与嵌入生成,提供本地 STDIO 传输的运行能力,同时包含一个可选的 Web 管理端供查看和管理索引数据。该实现可直接作为 MCP 服务器使用或作为开发参考与扩展。
基于模型上下文协议(MCP)的后端服务器实现,提供对知识 vault 的资源管理、工具调用与提示模板渲染等能力,通过 JSON-RPC 方式与 LLM 客户端交互,支持标准的文本/向量检索、注释日志、手动与自动化操作等场景,并以标准的 stdio 传输启动 MCP 服务,方便与 Claude Code 等工具链对接。
基于 Model Context Protocol 的后端服务器,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、跨传输协议接入,具备嵌入向量、图谱化决策存储等能力,适用于 Claude Code/Desktop/OpenClaw 等环境的上下文服务与功能扩展。
基于 MemFlow 的 MCP 服务器实现,向大型语言模型客户端提供 Obsidian Vault 的上下文、资源访问、工具执行与可定制的提示模板等能力;通过 JSON-RPC/HTTP 及标准输入输出等多种传输方式与客户端进行交互,并支持本地化、隐私优先的上下文服务。
基于 Model Context Protocol (MCP) 的服务器实现框架,提供资源管理、工具注册与执行、Prompt 模板渲染,以及多传输协议支持,面向大模型客户端提供标准化的上下文与功能服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册、资源管理、提示模板等能力,并通过 JSON-RPC 与客户端通信,支持 STDIO 与 HTTP 传输,以供 LLM 客户端查询、调用工具和获取上下文信息。
基于 Model Context Protocol 的 MCP 服务器,为本地知识库的 AI 客户端提供资源管理、工具执行与 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信。
基于 Model Context Protocol (MCP) 的服务器实现,为 LLM 客户端提供统一的上下文服务,核心功能包括托管与管理 Resources(资源)、注册和执行 Tools(工具),以及通过 Cursor 等传输途径与客户端进行 JSON-RPC 通信,便于将内存、检索、推理等能力暴露给 AI 编码代理。当前仓库中实现了一个可运行的 MCP 服务器端,具备工具注册、服务暴露和标准传输接口的完整能力。
基于 XiYanSQL 的 MCP 服务器实现,向 LLM 客户端以标准 JSON-RPC 提供数据库资源、工具调用和 Prompts 渲染等能力,支持 GreptimeDB、MySQL、PostgreSQL、SQLite 等多数据源,以及本地模型与向量检索集成,具备会话管理、能力声明和多传输协议支持。
基于 Model Context Protocol(MCP)的服务器实现,为 Obsidian 知识库提供资源、工具、提示模板等统一访问接口,通过 JSON-RPC 与客户端通信,支持 STDIO 与本地 HTTP 传输,并与本地向量检索索引数据库协同工作。
基于 Model Context Protocol (MCP) 的后端服务,提供 Clarity 相关上下文资源、工具调用与代码生成等能力,并通过 MCP 协议与客户端进行标准化交互,支持通过标准传输(如 STDIO)与多种后端服务集成。
基于 Model Context Protocol (MCP) 的本地化后端,提供资源管理、工具注册与执行,以及通过标准化的 MCP JSON-RPC 流程与 Claude Desktop 等 LLM 客户端通信的能力,用于在本地进行文档检索与上下文提供。该实现包含一个以Stdio为传输的 MCP 服务端,及一组用于知识库检索、统计与文档列举的工具。
基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源、工具和提示模板的标准化上下文服务,通过 JSON-RPC 进行请求/响应,且支持 SSE/WebSocket 等传输形式,便于在受控环境中实现高效的上下文管理与外部功能调用。
基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供资源访问、工具调用和提示模板的统一上下文服务,支持文档索引、向量检索、以及与 Claude Code 等 MCP 客户端的无缝集成。
基于 Model Context Protocol 的内存后端服务器,提供资源管理、工具执行与提示渲染等 MCP 功能。通过标准的 JSON-RPC 风格接口与客户端通信,内部实现了会话管理、主题路由、向量检索、事实抽取等能力,并通过标准输入输出(STDIO)提供 MCP 服务,适配 Claude Code 等 MCP 客户端进行上下文管理与外部功能调用。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 MySQL 的只读资源访问、工具执行、向量工具以及可渲染的提示模板能力,并通过 JSON-RPC/HTTP 等传输与 LLM 客户端进行安全、可扩展的交互。
基于 Meilisearch 的轻量级 MCP 服务器,提供 Markdown 文档的全文和向量搜索能力。
Coco MCP服务器是 wearable 设备 coco 的后端实现,通过 Model Context Protocol (MCP) 标准协议,为 LLM 应用提供音频数据资源访问和向量检索能力。