项目简介
QWEN-DEV-CLI是一款集成了Model Context Protocol (MCP) 的开发助手,旨在通过宪法级AI、多LLM支持(云端与本地)、交互式REPL和丰富的开发工具,提升开发者的工作效率。它作为一个MCP服务器,能够向其他LLM客户端提供上下文信息和功能,例如访问文件系统、执行Git操作或进行代码搜索。
主要功能点
- MCP 服务器功能: 托管和管理本地文件等资源;注册和执行27+生产级工具,包括文件读写、目录列表、文件搜索、Git操作、Bash命令执行等;支持Prompt模板定义。通过JSON-RPC协议与客户端通信,提供标准化上下文服务。
- 宪法级AI防护: 具备防提示注入层、法律-道德-人权-宪法保护指数评估、危险操作安全验证、速率限制及资源保护。
- 多LLM支持: 可连接HuggingFace API、Nebius AI (Qwen系列模型) 或本地Ollama服务,提供灵活的LLM后端选项,并支持自动切换和断路器机制。
- 交互式REPL: 提供响应式TUI界面,支持实时流式输出、多行输入、语法高亮、会话持久化和智能Tab补全。
- 高性能: 首次生成时间 (TTFT) 小于2秒,支持异步流式传输和Token预算管理,具备生产级错误处理。
安装步骤
- 克隆仓库:
git clone https://github.com/JuanCS-Dev/qwen-dev-cli.git cd qwen-dev-cli - 创建并激活虚拟环境 (Python 3.11+):
python3.11 -m venv venv source venv/bin/activate # Windows 用户请使用: venv\Scripts\activate - 安装依赖:
pip install -r requirements.txt - 配置环境变量:
复制 '.env.example' 到 '.env',并编辑 '.env' 文件,填入您的API密钥(例如 HuggingFace token 或 Nebius API Key)。
cp .env.example .env # 编辑 .env 文件,按需填入 HF_TOKEN, NEBIUS_API_KEY 等
服务器配置 (供MCP客户端连接使用)
此服务器作为一个独立的进程运行,并提供MCP服务。MCP客户端需要使用以下 JSON 配置来连接到 QWEN-DEV-CLI MCP 服务器。
{ "name": "QWEN-DEV-CLI MCP Server", "command": ["python", "-m", "qwen_dev_cli.cli_mcp"], "args": [], "description": "提供文件系统访问、Git操作、代码搜索等27+生产级工具的MCP服务器,具备宪法级AI防护。", "protocol": "json-rpc", "transport": "stdio" }
- 'name': 服务器的名称,用于在客户端界面显示。
- 'command': 启动MCP服务器进程的命令。这里是运行 'qwen_dev_cli.cli_mcp' 模块。
- 'args': 传递给启动命令的额外参数,目前为空。
- 'description': 服务器功能的简要描述。
- 'protocol': 采用 JSON-RPC 协议进行通信。
- 'transport': 传输协议,默认为 'stdio'(标准输入/输出)。
基本使用方法 (启动MCP服务器)
在您的终端中运行以下命令以启动 QWEN-DEV-CLI 的 MCP 服务器。启动后,它将在后台运行并等待MCP客户端的连接。
python -m qwen_dev_cli.cli_mcp
一旦服务器运行,您的MCP客户端就可以通过上述配置连接到它,并开始调用其提供的工具和访问上下文。
信息
分类
开发者工具