Decy是一个C语言到Rust语言的转译器,它通过托管工具和提供上下文信息,以标准化的方式作为MCP服务器与LLM客户端(如Claude Code)集成,实现C代码的自动化转译、分析和重构建议。
这是一个基于Model Context Protocol (MCP) 的服务器,用于通过LLM自动化Windows系统上的Microsoft PowerPoint,提供幻灯片管理、内容填充、模板分析及动画设置等功能。
连接LLM与Terra.Bio生命科学平台的MCP服务器,通过FISS API提供工作空间管理、基因组数据分析流程监控和数据交互工具。
为Honeybadger提供Model Context Protocol (MCP) 服务器,使LLM客户端能够通过结构化工具访问Honeybadger API数据和功能。
将AitherZero企业级基础设施自动化平台的能力通过Model Context Protocol (MCP) 暴露给AI助手。
一个基于MCP协议的后端服务,使大型语言模型(LLM)能够直接在Open WebUI中创建、导出各类文件(如PDF、Word、Excel、PPT、CSV、压缩包)并进行文档内容结构分析和智能批注。
连接LLM与Cisco Intersight API,将基础设施管理操作转化为LLM可调用的工具。
连接 Apache Pinot 数据库与大型语言模型 (LLM) 的上下文协议服务器,提供实时数据查询与元数据管理能力。
连接LLM与SWI-Prolog的MCP服务器,提供上下文、工具和Prompt,支持知识库管理和Prolog查询。
一个基于Model Context Protocol (MCP) 的服务器,让LLM通过自然语言查询Tekmetric商店数据,获取客户、车辆、维修订单等实时信息。
一个可扩展的AI Agent运行时后端,通过Model Context Protocol (MCP) 和A2A协议暴露AI Agent能力,提供工具调用、上下文管理和会话交互服务。
一个基于Model Context Protocol (MCP) 标准,用Go语言实现的服务器,提供茶叶工具、资源和提示服务,支持Stdio和HTTP/SSE传输。
一个基于Ruby on Rails实现的MCP服务器示例,为LLM客户端提供博客文章的创建、查询、更新和删除等功能。
将Sidekiq队列、统计和作业管理功能通过Model Context Protocol (MCP) 标准接口暴露给LLM客户端。
一个完整的MCP服务器,使大型语言模型能够通过标准化的MCP工具、资源和提示,探索和交互现有的联邦宇宙。
一个基于Model Context Protocol (MCP) 的服务器,通过Apache Knox为LLM客户端提供对Apache NiFi数据流的上下文信息访问和操作能力。
一个基于Model Context Protocol (MCP) 实现的TypeScript库存管理后端服务,提供商品查询、管理及数据库初始化工具,专为LLM应用设计。
一个基于Model Context Protocol (MCP) 实现的服务器,允许LLM客户端管理LimeSurvey问卷、参与者和回复,提供全面的数据交互功能。
Mai是一个全面的上下文服务框架,包含多个独立MCP服务器及一个MCP代理,为LLM应用提供资源管理、工具调用和Prompt模板服务。
通过Model Context Protocol (MCP) 协议,为大型语言模型提供Azure DevOps REST API的访问能力,支持工作项、项目管理等80余种操作。
将 Perplexity AI 问答和搜索能力通过 Model Context Protocol 封装为工具,为 LLM 客户端提供高级上下文服务。
连接Microsoft Dynamics 365 Finance & Operations与LLM客户端的MCP服务器,实现数据访问、操作及元数据探索。
一个专业的Model Context Protocol (MCP) 服务器,通过自动化交互将Google NotebookLM的功能和上下文能力提供给LLM客户端。
为LLM客户端提供与Sauce Labs测试平台集成的Model Context Protocol (MCP) 服务器,支持自然语言管理测试、设备和分析数据。
连接大语言模型与openSUSE Open Build Service,提供软件包管理、构建、查询等功能。
这是一个由IBM开发的MCP服务器,为AI代理提供与Salesforce组织交互的上下文信息、工具调用和Prompt模板。
一个基于Model Context Protocol (MCP)的服务器,为LLM客户端提供访问libSQL数据库的安全接口和工具。
基于Model Context Protocol的服务器,用于通过LLM控制Dynatrace UFO灯光设备,提供灯光控制工具和状态资源访问。
基于 Model Context Protocol (MCP) 为 Amazon SES v2 提供接口的示例服务器,支持通过LLM客户端访问和调用SES功能。
连接Google Analytics 4数据到大型语言模型客户端,支持通过自然语言查询网站分析数据。
连接大型语言模型到 BloodHound 安全数据,通过自然语言查询和分析 Active Directory 攻击路径。
一个基于 MCP 协议的服务端,使 LLM 能通过工具和资源与 Databricks Genie 交互,获取数据和答案。
在 Internet Computer (IC) 上构建 Model Context Protocol (MCP) 服务器的开发工具包。
连接大型语言模型与ReportPortal,实现通过对话查询测试执行结果、分析测试报告等功能。
通过 MCP 协议连接 LLM 客户端到 KubeSphere API,提供对 KubeSphere 资源的访问能力。
基于 Spring Boot AI 实现的 MCP 服务器,提供通过 MCP 协议访问和操作 MongoDB 数据库的功能。
将您的Simplenote笔记无缝集成到支持Model Context Protocol (MCP) 的LLM客户端中。
基于 Spring AI 实现的 MCP 服务器示例,提供天气和空气质量查询工具,通过 SSE 与 MCP 客户端通信。
轻量级网桥,将 Cloudera Agent Studio 功能暴露为 MCP 工具,供大型语言模型客户端调用。
构建Salesforce AI Agent和Prompt模板的Python SDK,包含MCP服务器用于集成。
作为基于MCP的Kubernetes上下文服务器,k8s-pilot提供集中管理和操作多个集群资源的能力,助力LLM进行高效Kubernetes交互。
使大语言模型(LLM)能够通过MCP协议与Altium Designer交互,实现电路设计项目的查询和控制。
基于Convoworks框架,将WordPress服务扩展为MCP服务器,通过SSE协议为LLM客户端提供工具和Prompt能力。
Varnishmon 是一款基于 Model Context Protocol (MCP) 构建的应用后端,提供 Varnish 监控指标和相关工具,赋能 LLM 客户端进行智能分析和交互。
JADX-MCP-SERVER是一个独立的Python服务器,通过MCP协议桥接JADX反编译器和本地LLM,为LLM提供实时的Android逆向工程上下文和代码分析能力。
通过 Model Context Protocol (MCP) 协议,使 LLM 应用能够安全访问和操作 SharePoint 内容的后端服务。
Volatility3 MCP服务器是一个桥接LLM客户端和内存取证工具Volatility3的后端服务,允许用户通过自然语言指令进行内存分析和安全事件调查。
PayPal Agent Toolkit MCP Server 实现了 Model Context Protocol,允许 LLM 通过函数调用安全访问和操作 PayPal API,如创建发票、查询订单等。
一个基于Model Context Protocol的服务器,允许LLM客户端通过Arduino CLI控制Arduino开发,实现代码编译、上传和库管理等功能。
该MCP服务器使LLM能够通过Model Context Protocol与Nutanix Prism Central交互,访问和管理Nutanix资源。
一个简单的MCP服务器示例,允许LLM通过工具、资源和Prompt模板与PostgreSQL数据库进行交互,实现数据查询和分析。
一款连接Pipedrive CRM的MCP服务器,使LLM应用能够安全访问和利用Pipedrive的客户关系数据和功能。
基于MCP协议实现的Selector AI集成服务器,通过标准接口向LLM客户端提供Selector AI的功能,例如文本问答。
用于控制 Unity 编辑器的 MCP 服务器模板,使 LLM 能够与 Unity 项目进行交互和自动化操作。
为PlayCanvas编辑器提供MCP服务器功能,通过标准化协议与LLM客户端交互,实现场景编辑和资源管理等自动化操作。
Flowcore Platform MCP Server为LLM应用提供标准化的接口,用于访问和管理Flowcore平台的数据资源和功能。
Ableton Vibe MCP服务器是一个允许大型语言模型(LLM)客户端与Ableton Live音乐制作软件交互的后端服务,通过MCP协议提供对Ableton Live的控制能力。
本仓库提供了一个使用FastMCP库构建的MCP服务器示例,用于将CustomGPT的功能集成到支持MCP协议的LLM客户端,例如Claude。
连接大型语言模型与CloudZero云成本数据,提供成本分析和洞察工具,支持通过自然语言查询云成本信息。
一个MCP服务器,允许LLM通过工具和Prompt与GitHub API进行交互,实现代码仓库信息查询和管理等功能。
CF Kaizen 提供 MCP 服务器,通过 Butler 和 Hoover API 访问 Cloud Foundry 信息和功能,使 LLM 能够与 Cloud Foundry 交互。
基于MCP协议的服务器,用于控制PlayCanvas编辑器,提供场景实体的创建、删除、编辑等工具,实现LLM对3D场景的交互操作。
netbox-mcp-server 是一个为 NetBox 网络自动化平台设计的 MCP 服务器,它允许 LLM 通过工具访问 NetBox 中的网络设备和配置数据。
该仓库提供预构建的MCP服务器,用于将GitHub和Puppeteer功能集成到LLM应用中,扩展LLM的能力边界。
ServiceNow MCP Server 实现了 Model Context Protocol,使得 Claude 等 LLM 应用能够安全访问和操作 ServiceNow 实例中的 IT 服务管理功能。
使用MCP协议连接大型语言模型客户端与Ableton Live音乐软件,通过工具调用控制Ableton Live的各种功能。
Model Context Protocol (MCP) 的 TypeScript SDK,用于简化 MCP 服务器和客户端的开发,提供资源、工具和 Prompt 管理等核心功能。
wrale_mcp-server-make 是一个 MCP 服务器,它通过 Model Context Protocol 协议,为 LLM 提供执行 Makefile 命令的能力,从而安全地运行和解释构建过程。
基于Model Context Protocol的Unomi服务器,通过Apache Unomi管理用户画像,为LLM客户端提供用户上下文信息和profile管理工具。
此项目为Home Assistant MCP服务器,通过MCP协议使LLM能够控制智能家居设备,如灯光、气候、门锁和安防系统。
此项目是一个Model Context Protocol (MCP) 服务器,旨在使大型语言模型 (LLM) 能够与Linear项目管理工具集成,实现问题追踪和项目管理自动化。
paloalto-mcp-servers项目为大语言模型应用提供了与Palo Alto Networks防火墙及服务集成的MCP服务器实现,支持LLM通过MCP协议安全可控地访问和管理Palo Alto Networks环境。
该项目是一个基于Model Context Protocol (MCP) 的Kraken交易所交易机器人,允许通过Claude等LLM客户端安全地进行加密货币交易操作。
Factorio MCP服务器是一个应用后端,它基于Model Context Protocol,允许LLM客户端通过工具管理Factorio游戏服务器,实现命令执行、玩家管理和服务器监控等功能。
一个Datadog MCP服务器,允许LLM如Claude访问和分析来自Datadog中Kubernetes集群和命名空间的日志。
基于Model Context Protocol的Google Tasks MCP服务器,允许LLM通过资源和工具管理Google Tasks,支持任务的创建、列表、删除和完成等操作。
lightdash-mcp-server 实现了 Model Context Protocol,允许 LLM 客户端通过标准接口访问 Lightdash 数据分析平台的数据和功能。
该项目是一个MCP服务器,旨在为LLM(如Claude)提供访问Snowflake数据库的能力,允许LLM通过执行SQL查询来获取和操作Snowflake中的数据。
Beamlit MCP Gateway桥接Beamlit CLI与LLM客户端,通过Model Context Protocol协议,使AI模型能安全访问和利用Beamlit的功能与资源。
Attio MCP Server 是一个连接 Attio CRM 和大语言模型的桥梁,通过 Model Context Protocol (MCP) 协议,使 LLM 客户端能够安全访问和操作 Attio CRM 中的公司数据和笔记功能。
PostgREST MCP服务器将LLM连接到PostgreSQL数据库,通过PostgREST API提供数据访问和操作能力。
Folderr MCP Server 提供工具以连接 Folderr API,用于管理助手和工作流,使 LLM 能够访问 Folderr 的功能。
Beeminder MCP Server是一个非官方项目,旨在通过 Model Context Protocol (MCP) 将 Beeminder 的目标追踪功能集成到 LLM 应用中,使用户可以通过 LLM 助手管理 Beeminder 目标和数据。
GraphQL MCP Server使LLM能够通过Model Context Protocol与GraphQL API交互,提供模式内省和查询执行工具。