项目简介
SuperFlag(原名'context-engine-mcp')是一个强大的上下文引擎,旨在通过标准化指令(Flags)提升AI助手的效率和精确性。它充当一个MCP服务器,向LLM客户端提供丰富的上下文信息和可调用的工具,使AI能够更好地理解任务意图并调整其行为模式,例如进行严格的代码分析、自动化任务选择、协作开发等。
主要功能点
- 上下文指令(Flags)托管与管理: 提供18种预定义指令,如'--analyze'(多角度分析)、'--auto'(AI自动选择指令)、'--strict'(零容错模式)等。用户可以通过编辑'~/.superflag/flags.yaml'文件来自定义、修改或扩展这些指令。
- MCP工具(Tools)执行: 通过'get_directives'工具,根据用户提供的指令动态生成并返回详细的操作指南,指导LLM客户端的行为。
- Prompt模板(Prompts)定义: 生成包含可用指令列表、指令选择策略、核心工作流程、元智能和执行规则的Prompt内容,为LLM提供结构化和可定制的交互模式。
- 会话管理: 跟踪每个会话中已使用的指令,避免重复提供冗余信息。用户可以通过'--reset'指令清除会话状态,重新初始化指令集。
- 多客户端集成: 提供针对Claude Code、Continue和Gemini CLI等流行LLM客户端的安装和配置支持,简化集成过程。
安装步骤
- 安装SuperFlag Python包 (推荐使用pipx):
或者使用pip安装:pipx install superflagpip install superflag - 运行安装向导,配置客户端集成:
- 对于Claude Code:
superflag install # 然后根据提示选择以下命令之一注册MCP服务器 (通常选择第一个): # claude mcp add -s user -- superflag # claude mcp add -s user -- uv run superflag - 对于Continue (VS Code扩展):
superflag install --target cn - 对于Gemini CLI:
superflag install --target gemini-cli
- 对于Claude Code:
服务器配置 (客户端侧)
SuperFlag MCP服务器本身无需复杂配置。但您的MCP客户端需要配置SuperFlag服务器的启动命令,才能与服务器建立连接。以下是常见MCP客户端的配置信息示例,具体请参照客户端文档:
-
对于Claude Code: 客户端将使用类似'claude mcp add -s user -- superflag'的命令来注册SuperFlag。这意味着Claude Code会通过'stdio'协议启动并连接到'superflag'命令。
-
对于Continue (配置在'~/.continue/mcpServers/superflag.yaml'文件中):
# SuperFlag MCP服务器配置示例 # 请根据您的实际SuperFlag安装方式,选择并取消注释以下其中一个配置选项。 # --- 选项 1: 标准Python安装 (最常见) --- name: SuperFlag MCP command: superflag # 启动SuperFlag服务器的命令 args: [] # 启动命令的参数列表 type: stdio # 服务器使用的传输协议,默认为stdio # --- 选项 2: UV (Python包管理器) 安装 --- # name: SuperFlag MCP # command: uv # 如果使用uv管理Python环境,则command为uv # args: ["run", "superflag"] # uv运行SuperFlag模块的参数 # type: stdio请编辑'~/.continue/mcpServers/superflag.yaml'文件,根据您的实际SuperFlag安装方式,取消注释并保存对应的配置。
-
对于Gemini CLI (配置在'~/.gemini/settings.json'文件中):
{ "mcpServers": { "superflag": { # 服务器的名称,用于客户端调用 "type": "stdio", # 服务器使用的传输协议 "command": "superflag", # 启动SuperFlag服务器的命令 "args": [], # 启动命令的参数列表 "env": {} # 运行服务器时的环境变量 (可选) } } }请确保在'~/.gemini/settings.json'文件的'mcpServers'部分添加或合并上述JSON配置。
基本使用方法
在与支持MCP的LLM客户端交互时,您可以通过在提示词中包含SuperFlag指令来引导AI行为:
- 自动模式: '"Refactor this code --auto"' (AI将根据任务自动选择最佳指令组合)
- 直接指令: '"--save"' (创建交接文档)
- 组合指令: '"Analyze --strict --seq"' (严格的多角度顺序分析)
- 重置会话: '"--reset --analyze"' (清除当前会话状态并重新应用分析指令)
在某些客户端中,您也可以直接调用MCP工具,例如:
- 'get_directives(['--analyze', '--performance'])' (手动激活指定指令)
信息
分类
AI与计算