基于 Model Context Protocol (MCP) 的本地服务器实现,提供对浏览器标签、分组、窗口等资源的访问、工具的注册与执行,以及提示模板的定义与渲染,供外部大语言模型(LLM)客户端通过 JSON-RPC 进行上下文查询、操作与交互。
基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型(LLM)客户端提供 Sequence 银行业务的上下文资源、可执行工具以及可渲染的提示模板,支持通过多种传输协议与客户端进行 JSON-RPC 交互,實现账户查询与远程规则触发等功能。
基于 MCP 的后端服务,向 LLM 客户端提供循环肽分析工具、资源和提示模板,并通过 JSON-RPC 协议进行通信。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供 consulta_llm 工具、资源上下文和提示模板,支持 JSON-RPC 请求/响应,当前实现通过 STDIO 传输进行通信,具备资源管理、工具注册与执行、以及提示渲染等核心能力。
基于 Model Context Protocol(MCP)的后端服务器,向大模型客户端提供资源管理、工具注册/执行和提示渲染等能力,并通过 JSON-RPC 与客户端通信,支持多种传输模式与会话管理。
基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端以标准化方式提供 Lean 的 YouTube 数据资源、可注册与执行的工具,以及可渲染的 Prompt 模板,支持 JSON-RPC 形式通信、会话管理与 MongoDB 缓存等能力。
基于 Model Context Protocol (MCP) 的后端服务器,为语言模型客户端提供 Google Play Store 的应用发现、详情、评价、关键词建议以及元数据校验等能力,具备代理轮换、会话管理和多工具接口,当前实现为可运行的原型。
基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源、工具与端点的管理能力,并通过 MCP 客户端与大模型进行上下文信息与功能调用的标准化交互,支持多种传输方式(如 STDIO、Web 以及 Docker 场景下的服务化部署)。
基于 Model Context Protocol (MCP) 的 Mollie API 服务端,向大型语言模型(LLM)客户端以标准化方式提供 Mollie 支付信息、查询工具与 prompts,通过 JSON-RPC 与客户端通信并通过标准传输(如 Stdio)实现扩展性与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,能够从 Grafana Dashboard 提取指标和变量信息,并通过 Prometheus API 提供即时与时间范围查询等能力,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具与 Prompts。
基于 Model Context Protocol 的后端服务实现,提供资源托管、工具执行、以及提示模板渲染等能力,支持通过 JSON-RPC 与大语言模型客户端进行资源读取、外部功能调用、以及上下文管理等交互。服务器端提供 STDIO 传输的 JSON-RPC 服务,并可选搭建 HTTP 调试接口,适合将本地上下文服务嵌入到 AI 助手工作流中,便于对接 Kubernetes 资源、CRD、以及服务器端的 dry-run 验证等功能。
基于模型上下文协议(MCP)的后端服务,提供 Confluence 页面搜索与文本读取等功能,并通过 MCP 标准向大型语言模型(LLM)客户端暴露工具与资源,以便在对话系统中获取上下文数据与外部能力。
基于模型上下文协议(MCP)的后端服务器,实现资源/工具/提示模板的托管与对外能力暴露,支持 JSON-RPC 请求、SSE 实时传输和会话管理,为 LLM 客户端提供标准化的上下文服务。
基于 MCP 的语音输入输出后端服务,提供 listen、listen_fixed、speak 等工具,供 Claude Code 等 MCP 客户端进行语音对话和上下文管理。
基于 Model Context Protocol(MCP)的后端服务器实现,提供对 Binary Ninja 数据库的 SQL 查询、自然语言查询与外部工具调用能力,并通过 MCP/SSE 与 LLM 客户端进行标准化通信,作为上下文与功能服务入口。
基于模型上下文协议(MCP)的后端服务器,将 CyberChef 的海量数据处理操作和工具暴露给对话式AI客户端,支持资源管理、工具注册与执行,以及可定制的提示模板渲染,且通过 JSON-RPC 与客户端通信,覆盖多种传输方式(STDIO、HTTP、SSE、WebSocket),帮助生成式AI在执行数据处理任务时获得稳定、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的本地后端服务器,提供 Workflowy 数据的资源托管、工具执行和提示模板渲染,供大语言模型客户端以 JSON-RPC 的方式读取和操作本地数据。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 形式暴露资源、工具和提示,提供会话管理、能力声明、工具注册与执行,以及对多种传输协议的支持,构建可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的服务器端实现,提供对 Google Workspace(Gmail、Drive、Docs、Sheets、Calendar、Chat、People 等等)的资源管理、工具调用与 Prompt 渲染等能力,供 LLM 客户端以统一的 JSON-RPC 方式查询和执行。
基于 MCP(Model Context Protocol)的后端服务,提供通过 JSON-RPC 与 LLM 客户端进行交互的能力,允许对工具进行注册与执行、获取项目状态与排行榜等,并通过标准传输(如 STDIO)实现与 Claude/GPT 等客户端的无缝对接。
基于 Model Context Protocol (MCP) 的后端服务实现,向大语言模型(LLM)客户端提供 YAML 规范写作辅助、资源/工具管理与提示模板渲染等能力。通过 JSON-RPC 与客户端通信,当前实现采用标准输入输出(stdio)传输方式,便于本地集成到开发工具链或桌面客户端(如 Claude 桌面)中。
基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型(LLM)客户端提供 Gmail 相关工具的统一访问接口,支持 JSON-RPC 请求/响应,工具注册与执行,并通过标准化的 MCP 通信传输(如标准输入输出)进行交互。
基于 Model Context Protocol (MCP) 的后端服务器,提供标准化的上下文服务给 LLM 客户端。该服务器托管和管理用于取证分析的资源与数据访问能力、注册并执行工具以调用外部功能,并定义与渲染可定制的 Prompt 模板,支持 JSON-RPC 通信、会话管理以及多传输协议扩展,为跨平台取证分析与 AI 辅助分析提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的本地化投资规划后端服务器,提供资源管理、工具执行和提示模板渲染等 MCP 服务,通过 JSON-RPC 与 LLM 客户端通信,支持 Claude Desktop 集成与本地数据保存等功能。
基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化方式向 LLM 客户端提供 MSSQL 数据库的资源、工具和提示等上下文服务,支持多语言实现(Node 与 .NET 版本)以及基于 JSON-RPC 的交互。
基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。
基于 Model Context Protocol 构建的后端服务,为对话型客户端提供标准化的资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,支持多引擎协同、JSON-RPC 通信以及多种传输协议的 MCP 场景实现。
基于 MCP(Model Context Protocol)的服务器实现,暴露 minecontext_screen_context 工具以供 MCP 客户端读取 MineContext 摘要并进行后续的 LLM 推理分析等。该仓库提供通过 FastMCP 构建的 MCP 服务端,能够接收请求、返回结构化上下文摘要,并与本地 MineContext 服务对接。
基于模型上下文协议(MCP)的 PostgreSQL 只读服务器实现,向LLM客户端提供结构化数据库资源、工具注册与提示渲染能力,通过JSON-RPC风格的MCP接口进行交互,支持多数据库只读查询、模式描述、索引/外键查询以及健康监控等功能。
基于 Common Lisp 的 MCP(Model Context Protocol)服务器实现,提供资源管理、工具注册与执行、提示模板渲染等核心能力,并通过 JSON-RPC 进行请求/响应。支持多种传输协议(stdio、TCP、HTTP),为大语言模型(LLM)客户端提供可扩展、可安全的上下文服务框架。
将大型语言模型 (LLM) 连接到 Salesforce 环境,安全提供组织、数据、用户和元数据等功能访问。
通过 Model Context Protocol (MCP),使 Claude 等 LLM 客户端能够安全访问 Scorecard 的模型评估工具。
该项目是基于 Model Context Protocol (MCP) 构建的服务器,使大型语言模型 (LLM) 客户端能够与 ONLYOFFICE DocSpace 平台进行交互,主要提供工具调用功能。
一个在Node.js环境下通过WebAssembly运行.NET ASP.NET Core实现Model Context Protocol (MCP) 服务器的基础示例。
一个基于 Model Context Protocol (MCP) 的服务器,连接 LLM 客户端到 Google Calendar 进行事件管理。
基于 Model Context Protocol 的服务器,提供对 Square Connect API 的标准化访问,赋能大型语言模型与 Square 商业数据和功能交互。
通过 OpenAPI 规范快速生成 MCP 服务器代理,使现有 API 轻松对接 LLM。
Railway MCP Server是一个MCP服务器,允许LLM客户端通过自然语言管理Railway.app云基础设施,包括项目、服务、部署和变量等资源。
此项目是一个 Supabase MCP 服务器,允许 LLM 通过 Model Context Protocol 协议查询 Supabase 数据库和生成 TypeScript 类型定义。