这是一个增强的顺序思考MCP服务器,专门为编程任务和复杂的软件问题解决而设计。它帮助大型语言模型(LLM)客户端,如支持MCP协议的AI助手,通过一个结构化的过程来分解问题、探索解决方案和完善思路。
主要功能
- 编程任务优化:特别针对代码分析、算法设计和程序调试等场景进行增强。
- 结构化思考:引导AI将复杂问题分解成可管理的、有序的思考步骤。
- 思路分支:支持AI探索同一个问题的不同解决路径或替代方案。
- 思路修订:允许AI修改或回溯之前的思考步骤,纠正错误或整合新信息。
- 参数验证:强制使用规范的参数命名格式(lower_snake_case)。
- 安全限制:内置思考步骤上限,防止无限循环(默认20步)。
- 高级调试与可视化:提供详细日志和交互式可视化看板,帮助开发者理解AI的思考过程。
安装步骤
该服务器使用Node.js开发,可以通过npm进行安装。推荐使用npx方式直接运行,无需全局安装:
- 确认已安装 Node.js 和 npm:如果未安装,请先访问 Node.js 官网下载安装。
- 无需额外手动安装:如果使用npx方式启动,客户端在首次运行时会自动下载并运行。
或者,如果您偏好全局安装:
npm install -g @mettamatt/code-reasoning
服务器配置
该服务器通过标准输入/输出(Stdio)与MCP客户端通信。要将此服务器与支持MCP的客户端(如Claude Desktop或兼容VS Code插件)集成,您需要在客户端的配置文件中添加服务器配置信息。
典型的配置信息会指定一个服务器名称(客户端用于在交互中引用该服务器),以及启动服务器所需的命令和参数。例如,在客户端的JSON配置文件中,您需要添加一个条目,包含以下关键信息:
- 'server name':用于在LLM提示中引用此服务器的名称,例如 'sequential-thinking'。
- 'command':启动服务器的命令。如果使用npx方式,命令是 'npx'。如果全局安装,命令可能是 'code-reasoning' 或 'node /path/to/installed/index.js'。
- 'args':传递给启动命令的参数列表。
- '--debug':启用详细的调试日志输出。
- '--visualize':启动一个本地的思考过程可视化看板(默认端口3000)。
- '--port=PORT':指定可视化看板使用的端口号(仅当 '--visualize' 启用时有效)。
例如,使用npx并启用可视化功能的配置(客户端配置文件内容):
"mcpServers": { "sequential-thinking": { // 服务器名称 "command": "npx", // 启动命令 "args": [ // 参数列表 "-y", "@mettamatt/code-reasoning", // npx参数,指定要运行的包 "--visualize", // 启用可视化 "--port=8080" // 指定可视化端口为8080 ] } }
基本使用方法
配置完成后,在支持的LLM客户端(如Claude)中,您可以在提示中提及您配置的服务器名称(例如 'sequential-thinking'),引导LLM使用此工具进行结构化思考:
请使用 sequential-thinking 来分析这段代码的执行流程并找出潜在的bug。
服务器将在后台处理AI通过MCP协议发送的思考步骤请求,并在需要时更新可视化看板或生成日志。
信息
分类
AI与计算