基于Model Context Protocol的服务器,赋能AI助手高效访问ServiceNow Fluent SDK工具及资源。
为 Obsidian 笔记库提供上下文管理和工具调用能力的 MCP 服务器,方便 AI 助手集成。
基于Model Context Protocol的Shell服务器,允许LLM安全地执行Shell命令并访问系统信息。
MCPML是一个Python框架,用于构建基于模型上下文协议(MCP)的服务器,并支持CLI工具和OpenAI Agent集成。
一个轻量级的MCP服务器,允许AI助手安全地执行OpenStack CLI命令,管理OpenStack云资源。
Azure CLI MCP Server是一个MCP服务器实现,它封装了Azure CLI,允许LLM通过执行Azure CLI命令来管理和操作Azure云资源。
一款多功能的MCP命令行工具,可作为MCP客户端与服务器交互,并提供Mock和Proxy服务器模式用于测试和扩展。
一个基于Model Context Protocol的服务器,通过Ledger CLI命令行工具为LLM提供财务数据访问和分析能力。
daoCLI 是一款 Solana DAO 命令行管理工具,同时集成了 MCP 服务器,支持通过自然语言与 DAO 进行交互。
Windows CLI MCP Server是一个安全的命令行工具,允许LLM客户端通过配置访问和控制Windows系统的PowerShell、CMD、Git Bash以及远程SSH系统。
Windows Terminal MCP服务器,使AI模型能够通过工具与Windows命令行交互,执行命令、读取输出和发送控制字符。
Super Windows CLI MCP Server是一个增强型的Windows命令行MCP服务器,允许通过MCP协议在Windows系统上执行命令和管理SSH连接。
Magick Convert MCP服务器允许LLM通过Model Context Protocol调用ImageMagick的命令行工具,实现图像处理和转换功能。
mcp-cli-exec 是一个MCP服务器,允许LLM客户端通过工具调用执行shell命令并获取结构化输出,支持原始命令执行和指定工作目录执行命令。
TaskWarrior MCP Server为 Claude 等 MCP 客户端提供 TaskWarrior 任务管理工具,允许用户通过自然语言控制 TaskWarrior。
k8s-interactive-mcp 是一个 MCP 服务器,允许用户通过自然语言指令,借助 LLM 客户端执行 Kubernetes (kubectl) 命令,实现交互式的 Kubernetes 集群管理。