Cognitive Modules
项目简介
Cognitive Modules 是一个支持 Model Context Protocol (MCP) 的服务端实现,旨在为大型语言模型(LLM)客户端提供结构化上下文信息和功能能力。该服务器以模块化的方式托管资源、注册工具,并定义可复用的Prompt模板,满足多样化的AI任务需求。通过标准的JSON-RPC协议进行通信,支持多种传输方式如标准输入输出(Stdio)、服务器发送事件(SSE)、WebSocket等。
主要功能点
- 资源管理:提供模块列表与详细信息,允许客户端动态查看已安装的认知模块。
- 工具执行:支持客户端远程调用内置工具,执行模块化处理任务。
- Prompt模板管理:定义并渲染Prompt模板,支持参数化和子代理调用,满足复杂对话场景。
- 会话与能力声明:实现会话管理,支持能力声明和错误回传,保证系统安全和扩展性。
- 多协议支持:内置MCP服务器通过Stdio等协议与客户端交互,便于集成各类工具如Claude Code、Cursor等。
- 模块生命周期管理:支持模块添加、升级、移除,并含有详尽的验证和迁移工具确保模块规范合规。
- 丰富的CLI工具:CLI支持模块运行、验证、组合执行和服务器启动,方便开发者操作和集成。
- 高级功能:支持子代理(subagent)调用、多层组合编排、风险评估与自动修复等。
安装步骤
- 确保系统安装了 Node.js (18+) 和 Python (3.9+)。
- 使用 npm 全局安装 CLI 工具:
npm install -g [email protected] - 或者使用 pip 安装:
pip install cognitive-modules==2.2.1 - 也可以直接使用无安装命令行:
npx [email protected] run code-reviewer --args "your code here" - 配置环境变量以连接LLM服务(示例为OpenAI):
export LLM_PROVIDER=openai export OPENAI_API_KEY=your_api_key
MCP服务器配置
MCP客户端可通过如下JSON配置启动连接:
{ "name": "cognitive-modules", "command": "cogn", "args": ["mcp"] }
- name:服务器标识,推荐填写"cognitive-modules"。
- command:启动命令,使用已安装的CLI命令'cogn'。
- args:服务器启动参数,这里固定为'["mcp"]',开启MCP服务接口。
该配置用于支持如Claude Desktop、Cursor等MCP客户端软件,方便进行标准化上下文服务交互。
基本使用方法
-
启动MCP服务器
cogn mcp启动后,服务器监听标准输入输出,等待MCP客户端连接。
-
运行模块
cogn run 模块名称 --args "输入内容"快速调用指定模块,完成结构化AI任务。
-
管理模块
- 添加模块:
cogn add ziel-io/cognitive-modules -m code-simplifier - 列出模块:
cogn list - 升级模块:
cogn update code-simplifier - 移除模块:
cogn remove code-simplifier
- 添加模块:
-
验证模块合规性
cogn validate 模块名称 --v22 -
启动HTTP API服务器(支持工作流平台集成)
cogn serve --port 8000
以上功能结合,构建了一个全面的MCP服务端,实现了模块的生命周期管理、功能调用和上下文封装,支持多种实际应用需求。