基于 Model Context Protocol 的 MCP 服务端实现,提供对 HDL/SystemVerilog 相关资源、工具调用以及提示模板的标准化访问,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)的渲染等能力,允许通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持多传输协议(如流式 HTTP、StdIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。仓库内包含基于 Python 的 FastAPI 实现(以及可选的 Node.js 实现结构),实现完整的 MCP 服务端功能与实际数据源集成。
基于 Model Context Protocol 的 MCP 服务器实现,整合插件注册、工具执行、资源管理与提示模板,通过 JSON-RPC 与浏览器客户端通信,支持 WebSocket 与 HTTP 传输,为 LLM 提供统一的上下文、工具调用和提示渲染能力,方便在开发环境中扩展自动化工具和上下文服务。
基于 Model Context Protocol (MCP) 的后端服务端实现,面向大模型客户端提供 Rancher 多集群管理的资源访问、工具执行与提示模板渲染,通过 JSON-RPC 与客户端通信,支持 stdio、HTTP/SSE 等传输模式,提供可扩展的上下文和能力服务。
基于 Model Context Protocol 的 MCP 服务器,提供对 Android 设备的自动化控制工具、资源和提示模板的标准化对接,支持 STDIO/HTTP 传输与 JSON-RPC 通信,便于与 LLM 客户端集成。
基于 Model Context Protocol 的本地 MCP 服务器实现,提供对 Planet API 的上下文访问、工具调用与提示渲染能力,帮助大语言模型在本地环境中高效地与 Planet 数据和功能交互。
一个基于 Charm KV 存储的 MCP 服务器实现,提供资源、工具、和提示模板等功能,供对话式 AI 客户端通过 JSON-RPC 与后台进行上下文交互与操作执行。当前实现通过标准输入输出(stdio)传输进行 JSON-RPC 的通信。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持多传输模式(如标准输入输出)。该服务器用于为 Playwright + Cucumber + TestNG 等测试框架提供统一的上下文服务和智能代码生成功能。
提供数据库 schema 信息和功能给 AI 客户端,支持 AI 调用 SchemaCrawler 工具进行数据库探索和分析。
将 Apple Notes 和 Things 3 集成到大语言模型客户端的 MCP 服务器。
通过 Model Context Protocol (MCP) 连接 AI 客户端与 DigitalOcean 资源,实现智能化的云管理。
通过 MCP 协议,为 AI 助手提供访问和管理 Google 日历、Gmail 和 Drive 的能力。
通过MCP协议向AI/LLM提供访问Azure Boards和Pipelines的功能。
一个基于 MCP 的 Go 语言应用后端,使 AI 助手(如 Claude)能够与 Atlassian Jira 进行交互和管理任务。
将 Smartlead API 功能以 Model Context Protocol (MCP) 标准暴露给 AI 助手和自动化工具。