Ready-to-Release (r2r) 提供了一系列Go语言实现的MCP服务器,将PowerShell、GitHub CLI、文档管理和架构图绘制等能力标准化为LLM可调用的工具,赋能AI自动化。
该仓库提供Python和Node.js实现的MCP服务器示例,用于为ChatGPT等LLM应用提供上下文、工具和交互式UI组件。
一个使用 TypeScript 实现的 MCP 服务器与客户端示例,集成 Microsoft Entra ID 认证,并通过 MCP 协议提供工具与 LLM 交互。
为LLM客户端提供PostgreSQL数据库、Kubernetes集群和Prometheus监控的上下文信息与操作工具,赋能AI驱动的智能运维。
为 Altegio.Pro 业务管理 API 提供 MCP (Model Context Protocol) 服务,支持 LLM 客户端进行沙龙/水疗业务管理操作。
一个轻量级、Schema无关的Model Context Protocol (MCP) 服务器实现,提供统一API,支持多种Schema验证库和传输协议。
一个基于Model Context Protocol (MCP) 的网络分析服务器,为大型语言模型(LLM)提供实时互联网拓扑和自治系统(AS)关系数据的查询与分析能力。
基于Azure Functions和Node.js的MCP服务器实现,支持Entra ID认证和Microsoft Graph集成。
一个功能全面的模型上下文协议 (MCP) 服务器,通过标准化接口,让大型语言模型 (LLM) 客户端能够无缝访问和管理 CustomGPT 智能体及其数据。
将任何AI代理转换为领域专家,通过Model Context Protocol为LLM提供模块化、可重用的技能。
一个基于Model Context Protocol (MCP) 的后端服务,将OpenAI Codex CLI的能力集成到Claude等LLM客户端中,提供AI编程助手功能。
提供多种语言和协议实现的MCP服务器示例,展示Model Context Protocol的核心功能和客户端集成。
一个基于Model Context Protocol (MCP) 构建的服务器,为LLM客户端提供对Azure CosmosDB数据库进行分析和操作的强大工具。
为LLM提供Salesforce支持案例的语义搜索和摘要获取功能,通过MCP协议与客户端交互。
该仓库提供了一套基于Python的后端服务基础设施,包括数据库管理和认证系统脚手架。它通过Model Context Protocol (MCP) 将这些功能暴露为工具,供大型语言模型(LLM)客户端(如GitHub Copilot)调用。
一个多功能的命令行工具,能够作为MCP服务器,提供与Google Drive、Docs和Sheets交互的能力。
一个用于在 Haskell 中构建 Model Context Protocol (MCP) 服务器的框架库。
MCP服务器,集成DeepSeek API,为LLM客户端提供AI代码评审、文件访问、API信息查询等能力。
基于 Model Context Protocol (MCP),为 LLM 客户端提供搜索 Azure Wiki 知识库并获取内容的能力。
基于Model Context Protocol (MCP),提供Android设备自动化能力的服务器,支持屏幕操作、文本输入和元素列表。
基于TypeScript的MCP服务器,将Moralis REST API封装为可供LLM调用的工具,提供区块链数据访问能力。