使用说明
项目简介
Think-MCP 服务器是一个实现了 Anthropic “think” 工具的 MCP 服务器。它通过标准的 MCP 协议,为 LLM 客户端提供深度思考能力。该服务器使用 OpenAI 的 o3-mini 模型作为思考引擎,并通过 stdio 传输协议与客户端进行通信。
主要功能点
- 深度思考工具: 提供 'think' 工具,允许 LLM 客户端调用以执行多步骤的复杂问题分析和推理。
- OpenAI o3-mini 模型: 使用 OpenAI 的 o3-mini 模型作为思考能力的基础,提供高质量的分析结果。
- 标准 MCP 协议: 遵循 MCP 协议规范,易于集成到任何支持 MCP 协议的 LLM 客户端。
- Stdio 传输: 使用标准的 stdio 作为传输协议,简化部署和集成过程。
- 安全性和稳定性: 具备输入 sanitization、安全检查、速率限制和错误处理机制,保证服务的安全性和稳定性。
安装步骤
-
安装依赖: 确保你的系统已安装 Python 3.6 或更高版本和 pip。在项目根目录下打开终端,运行以下命令安装所需的 Python 包:
pip install -r requirements.txt -
配置 OpenAI API 密钥: 在项目根目录下,创建或编辑 '.env' 文件,并填入你的 OpenAI API 密钥:
OPENAI_API_KEY=your_api_key_here请将 'your_api_key_here' 替换为你的实际 OpenAI API 密钥。
服务器配置
要将 Think-MCP 服务器配置为 Claude Desktop 的 MCP 服务器,你需要编辑 Claude Desktop 的配置文件。根据你的操作系统,找到配置文件 'claude_desktop_config.json':
- macOS: '~/Library/Application Support/Claude/claude_desktop_config.json'
- Windows: 'C:\Users\YourUsername\AppData\Roaming\Claude\claude_desktop_config.json'
在 'claude_desktop_config.json' 文件中,找到或创建 'mcpServers' 字段,并添加以下配置信息:
{ "mcpServers": { "think": { "command": "/full/path/to/python", "args": [ "/full/path/to/main.py" ] } } }
配置参数说明:
- '"think"': 服务器名称,可以自定义,用于在 Claude Desktop 中标识该 MCP 服务器。
- '"command"': Python 解释器的完整路径。例如,在 macOS 或 Linux 上可能是 '/usr/bin/python3' 或 '/usr/local/bin/python3',在 Windows 上可能是 'C:\Python39\python.exe'。请根据你的 Python 安装路径进行修改。
- '"args"': 一个字符串数组,包含启动 'main.py' 脚本所需的参数。这里指定了 'main.py' 脚本的完整路径。请将 '/full/path/to/main.py' 替换为 'main.py' 脚本在你系统上的实际完整路径。
完成配置后,重启 Claude Desktop 以使配置生效。
基本使用方法
配置完成后,在 Claude Desktop 或其他支持 MCP 协议的 LLM 客户端中,你可以通过调用名为 'think' 的工具来使用 Think-MCP 服务器提供的深度思考功能。
例如,在 Claude Desktop 中,你可以指示 Claude 使用 'think' 工具来分析问题,例如:
'请使用 think 工具,深入思考一下如何提高工作效率。'
客户端会将请求发送到 Think-MCP 服务器,服务器调用 OpenAI o3-mini 模型进行深度思考,并将结果返回给客户端。客户端会展示思考结果,从而帮助用户进行更深入的分析和决策。
注意: 首次使用前请确保已正确配置 OpenAI API 密钥,并且网络连接正常。
信息
分类
AI与计算