Cognitive Modules

项目简介

Cognitive Modules 是一个支持 Model Context Protocol (MCP) 的服务端实现,旨在为大型语言模型(LLM)客户端提供结构化上下文信息和功能能力。该服务器以模块化的方式托管资源、注册工具,并定义可复用的Prompt模板,满足多样化的AI任务需求。通过标准的JSON-RPC协议进行通信,支持多种传输方式如标准输入输出(Stdio)、服务器发送事件(SSE)、WebSocket等。

主要功能点

  • 资源管理:提供模块列表与详细信息,允许客户端动态查看已安装的认知模块。
  • 工具执行:支持客户端远程调用内置工具,执行模块化处理任务。
  • Prompt模板管理:定义并渲染Prompt模板,支持参数化和子代理调用,满足复杂对话场景。
  • 会话与能力声明:实现会话管理,支持能力声明和错误回传,保证系统安全和扩展性。
  • 多协议支持:内置MCP服务器通过Stdio等协议与客户端交互,便于集成各类工具如Claude Code、Cursor等。
  • 模块生命周期管理:支持模块添加、升级、移除,并含有详尽的验证和迁移工具确保模块规范合规。
  • 丰富的CLI工具:CLI支持模块运行、验证、组合执行和服务器启动,方便开发者操作和集成。
  • 高级功能:支持子代理(subagent)调用、多层组合编排、风险评估与自动修复等。

安装步骤

  1. 确保系统安装了 Node.js (18+) 和 Python (3.9+)。
  2. 使用 npm 全局安装 CLI 工具:
    npm install -g [email protected]
  3. 或者使用 pip 安装:
    pip install cognitive-modules==2.2.1
  4. 也可以直接使用无安装命令行:
    npx [email protected] run code-reviewer --args "your code here"
  5. 配置环境变量以连接LLM服务(示例为OpenAI):
    export LLM_PROVIDER=openai
    export OPENAI_API_KEY=your_api_key

MCP服务器配置

MCP客户端可通过如下JSON配置启动连接:

{
  "name": "cognitive-modules",
  "command": "cogn",
  "args": ["mcp"]
}
  • name:服务器标识,推荐填写"cognitive-modules"。
  • command:启动命令,使用已安装的CLI命令'cogn'。
  • args:服务器启动参数,这里固定为'["mcp"]',开启MCP服务接口。

该配置用于支持如Claude Desktop、Cursor等MCP客户端软件,方便进行标准化上下文服务交互。

基本使用方法

  • 启动MCP服务器

    cogn mcp

    启动后,服务器监听标准输入输出,等待MCP客户端连接。

  • 运行模块

    cogn run 模块名称 --args "输入内容"

    快速调用指定模块,完成结构化AI任务。

  • 管理模块

    • 添加模块:
      cogn add ziel-io/cognitive-modules -m code-simplifier
    • 列出模块:
      cogn list
    • 升级模块:
      cogn update code-simplifier
    • 移除模块:
      cogn remove code-simplifier
  • 验证模块合规性

    cogn validate 模块名称 --v22
  • 启动HTTP API服务器(支持工作流平台集成)

    cogn serve --port 8000

以上功能结合,构建了一个全面的MCP服务端,实现了模块的生命周期管理、功能调用和上下文封装,支持多种实际应用需求。

服务器信息