使用说明
项目简介
Think MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,专注于为 Claude 等大型语言模型 (LLM) 提供 "think" 工具。该工具允许 LLM 在生成最终答案的过程中暂停并进行思考,类似于提供一个思考空间,帮助 LLM 在复杂推理、策略执行和多步骤决策等任务中提升性能和可靠性。
主要功能点
- 提供 "think" 工具: 允许 LLM 显式地进行思考,并将思考过程记录下来,辅助复杂推理。
- 基于 MCP 协议: 遵循标准的 MCP 协议与 LLM 客户端通信,易于集成到支持 MCP 协议的 LLM 应用中。
- 轻量级实现: 代码简洁,易于理解和部署,适合作为 MCP 服务器的入门示例或在资源受限的环境中使用。
- 支持 Stdio 传输: 使用标准输入输出 (stdio) 作为通信协议,方便在各种环境下运行。
安装步骤
- 安装 Node.js 和 npm: 确保你的系统已安装 Node.js 和 npm (Node 包管理器)。
- 全局安装 think-mcp-server: 打开终端,运行以下命令全局安装 'think-mcp-server':
npm install -g think-mcp-server
服务器配置
要让 MCP 客户端(如 Claude Desktop, Cline, Cursor 等)连接到 Think MCP Server,你需要配置 MCP 服务器信息。以下是通用的配置方法,以 JSON 格式描述,你需要将这些配置添加到你的 MCP 客户端的配置文件中。
通用配置 (JSON 格式):
{ "mcpServers": { "think": { // 服务器名称,可以自定义,用于在客户端中标识和引用 "command": "npx", // 启动服务器的命令,这里使用 npx 运行 npm 包 "args": ["-y", "think-mcp-server"] // 命令参数,-y 自动确认,think-mcp-server 是要运行的 npm 包名 } } }
参数说明:
- '"think"': 服务器名称 (server name) - 客户端用此名称来识别和调用该 MCP 服务器。你可以自定义名称。
- '"command": "npx"': 启动命令 (command) - 指定用于启动服务器的可执行文件。'npx' 是 npm 自带的命令运行器,常用于运行本地或全局安装的 npm 包。
- '"args": ["-y", "think-mcp-server"]': 命令参数 (args) - 传递给启动命令的参数列表。
- '"-y"': 'npx' 的参数,表示自动确认执行 npm 包。
- '"think-mcp-server"': 要通过 'npx' 运行的 npm 包名称,即已全局安装的 'think-mcp-server' 包。
不同客户端的配置方法 (参考 README):
请参考仓库 README.md 文件中 "Installation" 部分,根据你使用的 MCP 客户端(Claude Desktop, Cline, Cursor)找到对应的配置文件位置和配置方法,并将上述 JSON 配置信息添加到你的客户端配置中。
基本使用方法
-
启动 MCP 客户端: 启动你配置了 Think MCP Server 的 MCP 客户端 (如 Claude Desktop, Cline, Cursor)。
-
在 Prompt 中使用 "think" 工具: 在与 LLM 的对话 Prompt 中,你可以指示 LLM 使用 "think" 工具进行思考。例如:
在回答我的问题之前,请先使用 "think" 工具思考一下。 <think_tool> 这里写一些指示 LLM 思考的内容,例如:分析用户问题的关键信息,思考可能的解决方案,等等。 </think_tool> 然后请告诉我你的答案。或者更直接地,在需要思考的步骤前,直接调用 'think' 工具:
... (之前的对话内容) 请使用 think 工具思考下一步应该做什么。 -
查看思考结果: 当 LLM 调用 "think" 工具后,服务器会记录思考过程,并在响应中返回一些鼓励性的信息(例如 "Great thinking.")。具体的思考过程可能不会直接返回给用户,但会帮助 LLM 更好地完成任务。
提示: 为了更好地利用 "think" 工具,建议在系统 Prompt 或对话 Prompt 中提供清晰的指令,说明何时以及如何使用 "think" 工具,例如,指示 LLM 在处理复杂问题、分析工具输出或进行多步骤推理时使用 "think" 工具。
信息
分类
AI与计算