项目简介:这是一个包含多个独立运行的MCP服务器的项目集合,旨在为大型语言模型(LLM)提供增强的认知功能,例如结构化论证、可视化推理、科学探究、类比推理、元认知监控、决策分析和事务管理。LLM客户端(如支持MCP的桌面应用)可以通过这些服务器调用相应的工具来辅助完成复杂任务。
主要功能点:
- 结构化论证:辅助分析和构建基于主张、前提和结论的正式论证,支持跟踪论证关系(支持、矛盾、回应)。
- 可视化推理:允许创建和操作抽象的视觉元素(如节点、边、容器),用于构建图、流程图、概念图等,辅助理解和发现模式。
- 科学探究:指导LLM遵循科学方法进行问题探究,包括形成观察、提出问题、构建假说、设计实验、分析结果和得出结论。
- 类比推理:辅助构建和分析结构化类比,明确源领域和目标领域元素,并进行映射以进行解释或生成推论。
- 元认知监控:帮助LLM自我评估其知识水平、判断论断的确定性、识别推理中的偏差和假设,并发现不确定性领域。
- 决策框架:提供结构化方法来分析复杂决策,包括定义选项、标准、评估结果和权衡风险。
- 协作推理:模拟具有不同视角的专家进行协作讨论,辅助多角度问题解决和观点整合。
- 事务管理:提供简单的状态管理功能,允许跨工具调用维护和传递上下文信息。
安装步骤:
每个服务器通常作为一个独立的软件包发布,可以通过npm或yarn安装。例如,安装结构化论证服务器可以使用命令 'npm install @waldzellai/structured-argumentation' 或 'yarn add @waldzellai/structured-argumentation'。项目也提供Docker镜像,可以直接运行。
MCP客户端配置:
支持MCP协议的LLM客户端(如某些桌面应用)需要进行配置才能使用这些服务器。配置通常是一个JSON文件,您需要指定:
- 'name':服务器的标识名称(例如,对于结构化论证服务器,名称可能是 'structured-argumentation')。
- 'command':启动服务器可执行文件的命令(通常是 'npx' 或服务器二进制文件路径)。
- 'args':传递给启动命令的参数(例如,对于结构化论证服务器,参数可能是 '["-y", "@waldzellai/structured-argumentation"]')。
具体的配置方式和所需的精确参数请参考您的LLM客户端文档以及您安装的服务器包的说明。
基本使用方法:
配置完成后,启动您的LLM客户端。客户端会自动检测并连接到配置的MCP服务器。在与LLM的对话中,当LLM认为某个认知任务可以由这些服务器提供的工具辅助完成时,它会向服务器发送工具调用请求。用户通常无需直接操作服务器,只需与LLM自然交流即可利用服务器的增强能力。
更多信息:
关于各服务器的详细参数和用法,请参考GitHub仓库中的具体代码和文档(如果提供)。
信息
分类
AI与计算