← 返回首页

"脚本执行"标签的搜索结果

找到 16 个结果

Chrome DevTools MCP 服务端实现

基于 Model Context Protocol (MCP) 的服务端实现,用于向基于 MCP 的中文/英文客户端提供标准化的上下文信息与功能。核心职责包括托管与管理 Tools、Resources、Prompts,支持通过 JSON-RPC 与客户端通信,提供会话管理、能力声明以及多传输协议的支持,适合在浏览器环境或本地服务中搭建对 LLM 的上下文服务框架。

BrowserWing MCP 服务器

基于模型上下文协议(MCP)的后端服务器,提供 MCP 指令注册与执行、资源与工具的管理,以及提示模板的渲染,供大模型客户端通过 JSON-RPC 调用,并可通过多传输协议进行通信。

macOS 自动化MCP服务器

通过 MCP 协议在 macOS 上执行 AppleScript/JXA 脚本,实现系统和应用自动化。

基于 FastMCP 的 DolphinDB 服务器

通过 MCP 协议为大型语言模型提供访问 DolphinDB 数据库和执行查询的能力。

Illustrator MCP Server

一个MCP服务器,允许LLM通过执行脚本和查看截图来控制Adobe Illustrator,实现自动化和创意工作流程。

Node Runner MCP Server

Node Runner MCP Server 是一个允许 LLM 客户端通过工具安全执行 Node.js 脚本、npm 命令和管理 Node.js 服务的 MCP 服务器。

MCP PowerShell执行服务器

一个轻量级的MCP服务器,允许AI助手通过执行PowerShell脚本来扩展功能,实现与Windows系统的交互自动化。

Nash MCP Server

Nash MCP Server为LLM提供上下文服务,支持命令执行、代码运行、网页访问、安全密钥管理和任务自动化。

MCP Claude Code Server

基于 Model Context Protocol (MCP) 构建的 Claude 代码能力服务器,提供代码理解、修改和执行工具,增强 LLM 的代码处理能力。

cmd line executor MCP

一个MCP服务器,允许LLM客户端通过run_command工具执行命令行命令,扩展LLM的功能边界。

mcp local command server

该项目是一个基于 Model Context Protocol (MCP) 的本地命令执行服务器,允许 LLM 客户端通过工具调用执行本地系统命令并获取结构化输出。

Windows Terminal

Windows Terminal MCP服务器,使AI模型能够通过工具与Windows命令行交互,执行命令、读取输出和发送控制字符。

CLI Exec

mcp-cli-exec 是一个MCP服务器,允许LLM客户端通过工具调用执行shell命令并获取结构化输出,支持原始命令执行和指定工作目录执行命令。

Data Exploration Server

一个用于交互式数据探索的MCP服务器,提供CSV数据加载、Python脚本执行等工具,帮助用户进行数据分析。

Babashka

Babashka MCP Server是一个MCP服务器,允许LLM客户端通过工具执行Babashka代码,并访问最近执行命令的历史记录作为资源。

Server Commands

Server Commands 是一个 MCP 服务器,允许 LLM 客户端通过工具调用在服务器端执行操作系统命令和脚本,并支持将命令输出作为 Prompt 消息插入对话历史。