项目简介

QWEN-DEV-CLI是一款集成了Model Context Protocol (MCP) 的开发助手,旨在通过宪法级AI、多LLM支持(云端与本地)、交互式REPL和丰富的开发工具,提升开发者的工作效率。它作为一个MCP服务器,能够向其他LLM客户端提供上下文信息和功能,例如访问文件系统、执行Git操作或进行代码搜索。

主要功能点

  • MCP 服务器功能: 托管和管理本地文件等资源;注册和执行27+生产级工具,包括文件读写、目录列表、文件搜索、Git操作、Bash命令执行等;支持Prompt模板定义。通过JSON-RPC协议与客户端通信,提供标准化上下文服务。
  • 宪法级AI防护: 具备防提示注入层、法律-道德-人权-宪法保护指数评估、危险操作安全验证、速率限制及资源保护。
  • 多LLM支持: 可连接HuggingFace API、Nebius AI (Qwen系列模型) 或本地Ollama服务,提供灵活的LLM后端选项,并支持自动切换和断路器机制。
  • 交互式REPL: 提供响应式TUI界面,支持实时流式输出、多行输入、语法高亮、会话持久化和智能Tab补全。
  • 高性能: 首次生成时间 (TTFT) 小于2秒,支持异步流式传输和Token预算管理,具备生产级错误处理。

安装步骤

  1. 克隆仓库:
    git clone https://github.com/JuanCS-Dev/qwen-dev-cli.git
    cd qwen-dev-cli
  2. 创建并激活虚拟环境 (Python 3.11+):
    python3.11 -m venv venv
    source venv/bin/activate  # Windows 用户请使用: venv\Scripts\activate
  3. 安装依赖:
    pip install -r requirements.txt
  4. 配置环境变量: 复制 '.env.example' 到 '.env',并编辑 '.env' 文件,填入您的API密钥(例如 HuggingFace token 或 Nebius API Key)。
    cp .env.example .env
    # 编辑 .env 文件,按需填入 HF_TOKEN, NEBIUS_API_KEY 等

服务器配置 (供MCP客户端连接使用)

此服务器作为一个独立的进程运行,并提供MCP服务。MCP客户端需要使用以下 JSON 配置来连接到 QWEN-DEV-CLI MCP 服务器。

{
  "name": "QWEN-DEV-CLI MCP Server",
  "command": ["python", "-m", "qwen_dev_cli.cli_mcp"],
  "args": [],
  "description": "提供文件系统访问、Git操作、代码搜索等27+生产级工具的MCP服务器,具备宪法级AI防护。",
  "protocol": "json-rpc",
  "transport": "stdio"
}
  • 'name': 服务器的名称,用于在客户端界面显示。
  • 'command': 启动MCP服务器进程的命令。这里是运行 'qwen_dev_cli.cli_mcp' 模块。
  • 'args': 传递给启动命令的额外参数,目前为空。
  • 'description': 服务器功能的简要描述。
  • 'protocol': 采用 JSON-RPC 协议进行通信。
  • 'transport': 传输协议,默认为 'stdio'(标准输入/输出)。

基本使用方法 (启动MCP服务器)

在您的终端中运行以下命令以启动 QWEN-DEV-CLI 的 MCP 服务器。启动后,它将在后台运行并等待MCP客户端的连接。

python -m qwen_dev_cli.cli_mcp

一旦服务器运行,您的MCP客户端就可以通过上述配置连接到它,并开始调用其提供的工具和访问上下文。

信息

分类

开发者工具