使用说明

项目简介

Think MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,专注于为 Claude 等大型语言模型 (LLM) 提供 "think" 工具。该工具允许 LLM 在生成最终答案的过程中暂停并进行思考,类似于提供一个思考空间,帮助 LLM 在复杂推理、策略执行和多步骤决策等任务中提升性能和可靠性。

主要功能点

  • 提供 "think" 工具: 允许 LLM 显式地进行思考,并将思考过程记录下来,辅助复杂推理。
  • 基于 MCP 协议: 遵循标准的 MCP 协议与 LLM 客户端通信,易于集成到支持 MCP 协议的 LLM 应用中。
  • 轻量级实现: 代码简洁,易于理解和部署,适合作为 MCP 服务器的入门示例或在资源受限的环境中使用。
  • 支持 Stdio 传输: 使用标准输入输出 (stdio) 作为通信协议,方便在各种环境下运行。

安装步骤

  1. 安装 Node.js 和 npm: 确保你的系统已安装 Node.js 和 npm (Node 包管理器)。
  2. 全局安装 think-mcp-server: 打开终端,运行以下命令全局安装 'think-mcp-server':
    npm install -g think-mcp-server

服务器配置

要让 MCP 客户端(如 Claude Desktop, Cline, Cursor 等)连接到 Think MCP Server,你需要配置 MCP 服务器信息。以下是通用的配置方法,以 JSON 格式描述,你需要将这些配置添加到你的 MCP 客户端的配置文件中。

通用配置 (JSON 格式):

{
  "mcpServers": {
    "think": {  // 服务器名称,可以自定义,用于在客户端中标识和引用
      "command": "npx", // 启动服务器的命令,这里使用 npx 运行 npm 包
      "args": ["-y", "think-mcp-server"] // 命令参数,-y 自动确认,think-mcp-server 是要运行的 npm 包名
    }
  }
}

参数说明:

  • '"think"': 服务器名称 (server name) - 客户端用此名称来识别和调用该 MCP 服务器。你可以自定义名称。
  • '"command": "npx"': 启动命令 (command) - 指定用于启动服务器的可执行文件。'npx' 是 npm 自带的命令运行器,常用于运行本地或全局安装的 npm 包。
  • '"args": ["-y", "think-mcp-server"]': 命令参数 (args) - 传递给启动命令的参数列表。
    • '"-y"': 'npx' 的参数,表示自动确认执行 npm 包。
    • '"think-mcp-server"': 要通过 'npx' 运行的 npm 包名称,即已全局安装的 'think-mcp-server' 包。

不同客户端的配置方法 (参考 README):

请参考仓库 README.md 文件中 "Installation" 部分,根据你使用的 MCP 客户端(Claude Desktop, Cline, Cursor)找到对应的配置文件位置和配置方法,并将上述 JSON 配置信息添加到你的客户端配置中。

基本使用方法

  1. 启动 MCP 客户端: 启动你配置了 Think MCP Server 的 MCP 客户端 (如 Claude Desktop, Cline, Cursor)。

  2. 在 Prompt 中使用 "think" 工具: 在与 LLM 的对话 Prompt 中,你可以指示 LLM 使用 "think" 工具进行思考。例如:

    在回答我的问题之前,请先使用 "think" 工具思考一下。
    <think_tool>
    这里写一些指示 LLM 思考的内容,例如:分析用户问题的关键信息,思考可能的解决方案,等等。
    </think_tool>
    然后请告诉我你的答案。

    或者更直接地,在需要思考的步骤前,直接调用 'think' 工具:

    ... (之前的对话内容)
    请使用 think 工具思考下一步应该做什么。
  3. 查看思考结果: 当 LLM 调用 "think" 工具后,服务器会记录思考过程,并在响应中返回一些鼓励性的信息(例如 "Great thinking.")。具体的思考过程可能不会直接返回给用户,但会帮助 LLM 更好地完成任务。

提示: 为了更好地利用 "think" 工具,建议在系统 Prompt 或对话 Prompt 中提供清晰的指令,说明何时以及如何使用 "think" 工具,例如,指示 LLM 在处理复杂问题、分析工具输出或进行多步骤推理时使用 "think" 工具。

信息

分类

AI与计算