使用说明

项目简介

本项目 'gikendaasowin-aabajichiganan-mcp' (或英文名 'cognitive-tools-mcp') 是一个实现了 Model Context Protocol (MCP) 协议的服务器,旨在为大型语言模型 (LLM) 客户端提供一系列认知工具,以提升其在复杂任务中的推理、规划、分析和迭代能力。该服务器专注于 AI 助手的内部认知循环,支持结构化思考、情境评估、计划制定、链式推理、反思优化等关键认知过程。

主要功能点

  • 结构化思考 (Think):提供核心的 'think' 工具,作为认知中心枢纽,用于进行深入分析、制定计划、验证步骤、评估风险和自我修正。
  • 快速思考 (Quick Think):提供轻量级的 'quick_think' 工具,用于低复杂度和低风险场景下的快速确认和记录。
  • 情境评估 (Assess CUC-N Mode):提供 'assess_cuc_n_mode' 工具,用于在进行复杂认知过程前,评估任务的复杂性、不确定性、后果和新颖性 (CUC-N),并据此选择合适的思考模式 ('think' 或 'quick_think')。
  • 信心评估 (Gauge Confidence):提供 'gauge_confidence' 工具,用于评估对当前计划或推理的信心水平,并触发必要的反思或深入思考。
  • 计划与解决 (Plan and Solve):提供 'plan_and_solve' 工具,辅助 LLM 生成结构化的计划草案,用于分解复杂目标并规划执行步骤。
  • 链式思考 (Chain of Thought):提供 'chain_of_thought' 工具,辅助 LLM 生成详细的、逐步的推理链,用于解决复杂问题和解释推理过程。
  • 迭代草稿 (Chain of Draft):提供 'chain_of_draft' 工具,支持 LLM 生成简洁的、迭代的推理草稿,用于快速探索多种解决方案或假设。
  • 反思 (Reflection):提供 'reflection' 工具,引导 LLM 对先前的推理、计划或结果进行批判性自我评估,以进行迭代改进。
  • 情境合成 (Synthesize Prior Reasoning):提供 'synthesize_prior_reasoning' 工具,用于管理上下文,引导 LLM 生成对先前推理步骤的结构化总结,以便更好地理解和指导后续步骤。

安装步骤

  1. 使用 npm 安装 (选择中文或英文包名均可):

    # 使用中文包名
    npx @nbiish/gikendaasowin-aabajichiganan-mcp
    
    # 或使用英文包名
    npx @nbiish/cognitive-tools-mcp

服务器配置

要将此 MCP 服务器与 MCP 客户端(例如 Cursor 编辑器)连接,您需要在客户端的 MCP 配置文件中添加服务器配置。以下是 '~/.cursor/mcp.json' 文件的配置示例:

使用中文包名配置:

{
  "mcpServers": {
    "gikendaasowin-aabajichiganan": {  // 服务器名称,可以自定义
      "command": "npx",  // 启动服务器的命令,这里使用 npx
      "args": ["-y", "@nbiish/gikendaasowin-aabajichiganan-mcp"] // 启动参数,指定要执行的 npm 包
    }
  }
}

使用英文包名配置:

{
  "mcpServers": {
    "cognitive-tools": {  // 服务器名称,可以自定义
      "command": "npx",  // 启动服务器的命令,这里使用 npx
      "args": ["-y", "@nbiish/cognitive-tools-mcp"] // 启动参数,指定要执行的 npm 包
    }
  }
}

配置说明:

  • '"mcpServers"': 定义 MCP 服务器配置的根节点。
  • '"gikendaasowin-aabajichiganan"' 或 '"cognitive-tools"': 自定义的服务器名称,在客户端中用于标识和选择该服务器。您可以根据需要修改。
  • '"command": "npx"': 指定启动服务器的命令为 'npx',它会执行 npm 包。
  • '"args": ["-y", "@nbiish/gikendaasowin-aabajichiganan-mcp"]': 指定传递给 'npx' 命令的参数。
    • '"-y"': 'npx' 的参数,表示自动确认安装包。
    • '"@nbiish/gikendaasowin-aabajichiganan-mcp"' 或 '"@nbiish/cognitive-tools-mcp"': 指定要执行的 npm 包名称,即此 MCP 服务器的包名。

请根据您选择的包名(中文或英文)选择相应的配置添加到客户端的 'mcp.json' 文件中。

基本使用方法

此 MCP 服务器提供了一系列认知工具,主要供 LLM 客户端调用以增强其自身的能力。客户端可以通过 JSON-RPC 协议向服务器发送请求,调用不同的工具。

工具调用示例 (以 'think' 工具为例):

客户端可以发送如下 JSON-RPC 请求调用 'think' 工具:

{
  "toolName": "think",
  "arguments": {
    "thought": "## Analysis\n分析当前情况...\n\n## Plan\n制定下一步计划...\n\n## Verification\n验证计划...\n\n## Risk Assessment\n风险评估...\n\n## Self-Correction\n自我修正..."
  }
}

LLM 客户端需要根据任务需求和自身推理流程,合理地调用这些认知工具,并根据工具的返回结果进行下一步操作,以实现更智能、更可靠的 AI 助手功能。 请务必参考仓库的 README.md 文件和 tool descriptions 获取更详细的工具参数和使用方法。

核心使用原则:

  • 强制 'think' 分析: 在大多数认知步骤之后,都应该强制调用 'think' 工具进行分析、规划和反思,以确保推理的结构化和可靠性。
  • CUC-N 评估指导模式选择: 在开始重要认知过程前,使用 'assess_cuc_n_mode' 工具评估任务特性,并根据评估结果选择 'think' 或 'quick_think' 模式。
  • 迭代优化流程: 利用 'chain_of_draft' 和 'reflection' 工具进行迭代草稿生成和反思优化,不断改进推理和解决方案。
  • 情境管理: 使用 'synthesize_prior_reasoning' 工具管理上下文,总结关键决策和未解决问题,保持推理的连贯性和焦点。

通过合理地配置和使用这些认知工具,LLM 客户端可以显著提升其在各种复杂任务中的表现。

信息

分类

AI与计算