使用说明
项目简介
wcgw (wcgw: Shell and Coding agent for Claude and Chatgpt) 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在增强大型语言模型 (LLM) 如 Claude 和 ChatGPT 的能力。它允许 LLM 安全且可控地访问本地计算机的 Shell 环境和文件系统,从而实现代码执行、文件编辑、系统管理等高级功能。
主要功能点
- Shell 命令执行: 允许 LLM 执行 Shell 命令,并返回命令输出,实现与操作系统的交互。
- 文件系统访问: 支持 LLM 读取和写入文件,方便进行代码编辑、数据处理等任务。
- 大文件编辑: 支持对大型文件进行增量编辑,避免 token 限制问题。
- 代码语法检查: 在代码编辑后,自动进行语法检查,并将错误反馈给 LLM 进行修正。
- 交互式命令处理: 支持处理交互式 Shell 命令,例如使用方向键、中断和 ANSI 转义序列的命令。
- 完整的 Shell 访问权限: 提供对 Shell 环境的完全控制,无功能限制。
- Claude Desktop 支持: 通过 MCP 协议与 Claude Desktop 应用集成,实现更强大的本地功能扩展 (macOS only)。
- ChatGPT 支持: 通过中继服务器 (relay server) 允许 ChatGPT 与本地 Shell 交互 (Linux 或 macOS)。
安装步骤
-
安装 uv: 使用 Homebrew 安装 'uv' 包管理器 (macOS):
brew install uv注意: 推荐使用 Homebrew 安装 'uv'。如果使用其他方式安装,请确保 'uv' 可执行文件位于全局路径,例如 '/usr/bin/'。
-
配置 Claude Desktop (仅 Claude):
- 打开 Claude Desktop 应用的配置文件 'claude_desktop_config.json',该文件通常位于 '~/Library/Application Support/Claude/' 目录下。
- 修改 'claude_desktop_config.json' 文件,添加 'mcpServers' 配置,如下所示:
{ "mcpServers": { "wcgw": { "command": "uv", "args": [ "tool", "run", "--from", "wcgw@latest", "--python", "3.12", "wcgw_mcp" ] } } }-
配置参数说明:
- 'command': MCP 服务器的启动命令,这里设置为 'uv' (假设 'uv' 命令在您的 PATH 环境变量中)。
- 'args': 启动命令的参数列表,包括:
- 'tool run': 使用 uv 工具运行指定的包。
- '--from wcgw@latest': 指定要运行的包为 'wcgw@latest' (wcgw 最新版本)。
- '--python 3.12': 指定运行环境的 Python 版本为 3.12。
- 'wcgw_mcp': 指定要运行的模块为 'wcgw_mcp' (wcgw MCP 服务器入口)。
-
问题排查:
- 如果遇到 "uv ENOENT" 错误,请确保 'uv' 已正确安装。在终端中运行 'which uv' 命令,检查 'uv' 的安装路径,并将配置中的 '"command"' 替换为实际路径。
- 如果仍然有问题,请尝试在终端中直接运行命令 'uv tool run --from wcgw@latest --python 3.12 wcgw_mcp',检查是否可以正常启动。该命令应该没有输出,并且不会退出。
- 使用 MCP Inspector 工具调试服务器:'npx @modelcontextprotocol/[email protected] uv tool run --from wcgw@latest --python 3.12 wcgw_mcp'。
-
重启 Claude 应用: 完成配置后,重启 Claude Desktop 应用使配置生效。
-
ChatGPT 配置 (仅 ChatGPT): ChatGPT 的配置方法请参考仓库中的 'openai.md' 文档。
基本使用方法
- 启动 MCP 服务器: 按照上述配置步骤启动 MCP 服务器。
- 连接 MCP 客户端 (Claude App): 配置完成后,Claude 应用应该会自动连接到 MCP 服务器。如果配置正确,您可以在 Claude 应用界面中看到一个火箭🚀图标,表示 MCP 服务器已连接。
- 与 LLM 交互: 现在您可以直接向 Claude 或 ChatGPT 发出指令,例如执行 Shell 命令、读取/编辑文件等。LLM 将通过 MCP 服务器与您的本地计算机进行交互。
VS Code 扩展 (可选)
仓库作者还提供了一个 VS Code 扩展 wcgw,可以方便地将 VS Code 中的文本内容和文件路径传递给 Claude 应用进行处理。
本地 Shell 访问 (可选)
wcgw 还支持通过 OpenAI API Key 或 Anthropic API Key 在本地直接访问 Shell,无需 Claude 或 ChatGPT 应用。具体配置和使用方法请参考仓库 README 中的说明。
示例
仓库 README 中提供了一些使用示例图片,展示了如何通过 wcgw 与 LLM 交互完成各种任务,例如代码问题解决、代码搜索、项目构建、文件编辑等。
⚠️ 警告: 请务必谨慎使用 "Autonomous shell command execution" 功能,确保您了解潜在的安全风险。
信息
分类
桌面与硬件