使用说明
项目简介
该项目是一个用Python实现的Model Context Protocol (MCP) 服务器,专注于支持大型语言模型(LLM)进行结构化的、分步式的思维过程,帮助解决复杂问题。它允许LLM记录、修改和分支思考步骤,并提供对思考历史的访问。
主要功能点
- 分步思考: 记录思考过程中的每一步,跟踪进度。
- 思维修订: 支持回溯并修改之前记录的思考步骤,优化思路。
- 思维分支: 允许从现有思考点创建新的思考路径,并行探索不同的解决方案或角度。
- 思考历史访问: 通过标准接口获取完整的思考记录和不同分支的详细内容。
- 思考总结: 提供思考过程的整体概览和摘要。
安装步骤
- 确保您的系统已安装 Python 3.8 或更高版本,以及 'pip' 包管理器。
- 推荐: 安装 'uv',这是一个快速的 Python 包安装器和运行器。在终端运行:
如果您选择不使用 'uv',也可以直接使用 'pip'。pip install uv - 将该 GitHub 仓库克隆或下载到您的本地计算机的某个目录。
- 打开终端或命令提示符,切换到您克隆或下载的仓库目录的根目录(即包含 'main.py' 文件的目录)。
- 安装项目依赖。如果您使用了 'uv',运行:
如果您没有使用 'uv',运行:uv syncpip install .
服务器配置
MCP服务器是为支持Model Context Protocol的LLM客户端(如某些AI助手应用)提供服务的。您需要在您的MCP客户端中配置此服务器,以便客户端能够启动并连接它。配置通常包括以下关键信息:
- 服务器标识符 (Server Name): 一个用于在客户端中识别此服务器的名称,例如 'sequential-thinking'。您可以根据客户端的配置界面或文件格式填写。
- 启动命令 (Command): 执行服务器的命令。如果您使用 'uv' 运行,命令通常是 'uv';如果您直接使用 'python' 运行,命令通常是 'python'。
- 启动参数 (Arguments): 传递给启动命令的一系列字符串参数,用于告诉命令如何运行服务器脚本。
- 如果您使用 'uv',参数列表通常是 '["--directory", "服务器文件所在目录的路径", "run", "main.py"]'。请将 '"服务器文件所在目录的路径"' 替换为您实际存放该仓库文件的目录的完整路径。
- 如果您直接使用 'python',参数列表通常是 '["服务器 main.py 文件的完整路径"]'。请将 '"服务器 main.py 文件的完整路径"' 替换为您实际存放 'main.py' 文件的完整路径。
具体的配置方式取决于您的MCP客户端应用,请参考该客户端的文档进行设置。
基本使用方法
服务器安装并配置到您的MCP客户端后,客户端即可在需要时自动启动并与之交互:
- 调用工具: LLM 可以发现并调用名为 'sequential_thinking' 的工具。通过调用此工具,LLM 可以向服务器发送当前的思考内容、步骤编号、修订标记、分支信息等,服务器会记录这些思考数据。
- 访问资源: LLM 可以通过访问特定的资源 URI 来获取思考过程中的数据作为上下文。例如,访问 'thoughts://history' 可以获取完整的思考记录;访问 'thoughts://branches/分支ID' 可以获取特定分支的思考内容;访问 'thoughts://summary' 可以获取整体思考的摘要。
- 获取Prompt: LLM 可以获取名为 'thinking_process_guide' 的 Prompt,从中了解如何有效地使用该分步思考能力进行交互。
通过这些机制,LLM 可以利用此服务器的能力,实现更结构化、可追溯和可控的问题解决与思考过程。
信息
分类
AI与计算