这是一个增强的顺序思考MCP服务器,专门为编程任务和复杂的软件问题解决而设计。它帮助大型语言模型(LLM)客户端,如支持MCP协议的AI助手,通过一个结构化的过程来分解问题、探索解决方案和完善思路。

主要功能

  • 编程任务优化:特别针对代码分析、算法设计和程序调试等场景进行增强。
  • 结构化思考:引导AI将复杂问题分解成可管理的、有序的思考步骤。
  • 思路分支:支持AI探索同一个问题的不同解决路径或替代方案。
  • 思路修订:允许AI修改或回溯之前的思考步骤,纠正错误或整合新信息。
  • 参数验证:强制使用规范的参数命名格式(lower_snake_case)。
  • 安全限制:内置思考步骤上限,防止无限循环(默认20步)。
  • 高级调试与可视化:提供详细日志和交互式可视化看板,帮助开发者理解AI的思考过程。

安装步骤

该服务器使用Node.js开发,可以通过npm进行安装。推荐使用npx方式直接运行,无需全局安装:

  1. 确认已安装 Node.js 和 npm:如果未安装,请先访问 Node.js 官网下载安装。
  2. 无需额外手动安装:如果使用npx方式启动,客户端在首次运行时会自动下载并运行。

或者,如果您偏好全局安装:

npm install -g @mettamatt/code-reasoning

服务器配置

该服务器通过标准输入/输出(Stdio)与MCP客户端通信。要将此服务器与支持MCP的客户端(如Claude Desktop或兼容VS Code插件)集成,您需要在客户端的配置文件中添加服务器配置信息。

典型的配置信息会指定一个服务器名称(客户端用于在交互中引用该服务器),以及启动服务器所需的命令和参数。例如,在客户端的JSON配置文件中,您需要添加一个条目,包含以下关键信息:

  • 'server name':用于在LLM提示中引用此服务器的名称,例如 'sequential-thinking'。
  • 'command':启动服务器的命令。如果使用npx方式,命令是 'npx'。如果全局安装,命令可能是 'code-reasoning' 或 'node /path/to/installed/index.js'。
  • 'args':传递给启动命令的参数列表。
    • '--debug':启用详细的调试日志输出。
    • '--visualize':启动一个本地的思考过程可视化看板(默认端口3000)。
    • '--port=PORT':指定可视化看板使用的端口号(仅当 '--visualize' 启用时有效)。

例如,使用npx并启用可视化功能的配置(客户端配置文件内容):

"mcpServers": {
  "sequential-thinking": { // 服务器名称
    "command": "npx",     // 启动命令
    "args": [             // 参数列表
      "-y", "@mettamatt/code-reasoning", // npx参数,指定要运行的包
      "--visualize",      // 启用可视化
      "--port=8080"       // 指定可视化端口为8080
    ]
  }
}

基本使用方法

配置完成后,在支持的LLM客户端(如Claude)中,您可以在提示中提及您配置的服务器名称(例如 'sequential-thinking'),引导LLM使用此工具进行结构化思考:

请使用 sequential-thinking 来分析这段代码的执行流程并找出潜在的bug。

服务器将在后台处理AI通过MCP协议发送的思考步骤请求,并在需要时更新可视化看板或生成日志。

信息

分类

AI与计算