Claude Cognitive MCP 服务器
使用说明内容(Markdown格式)
-
项目简介
- claude-cognitive 是一个面向 Claude 系列模型的综合后端系统,包含内置的内存管理、学习、分析与 agent 模型等组件。该仓库还实现了基于 MCP 的服务端能力,能够向 LLM 客户端提供统一的上下文数据源、工具调用能力以及可渲染的提示模板。
- MCP 服务器在本项目中承担“资源托管与访问”、“工具注册与执行”、“Prompt 模板渲染”的核心职责,并通过 JSON-RPC 与客户端进行通信,支持多种传输协议以满足不同场景的交互需求。
-
主要功能点
- 资源与内存管理:提供对“资源/记忆/观察”等上下文数据的托管与访问能力,用于向 LLM 提供上下文。
- Tools/Tools 调用:注册并执行外部工具,支持 LLM 调用外部功能以扩展能力。
- Prompt/模板渲染:定义和渲染提示模板,支持可定制的 LLM 交互模式。
- JSON-RPC 通信:服务器通过 JSON-RPC 收发请求和通知,与前端或客户端进行上下文服务交互。
- 传输协议灵活:设计初衷是支持 STDIO、HTTP/WS/SSE 等多种传输协议以适配不同部署环境。
- 与 Mind/Hindsight 集成:MCP 服务端可以接入 Mind 知识与记忆能力,提供持续的上下文服务能力。
-
安装步骤
- 克隆仓库后,在项目根目录执行安装依赖的标准流程(如 npm install)。
- 构建与运行 MCP 服务器的步骤在项目文档中有对应说明,请参考 README 与构建脚本以确保 dist 产物可用。
-
服务器配置
- MCP 客户端需要至少提供服务器的启动命令和参数来建立连接。下面给出一个示例配置思路,实际字段以 MCP 客户端实现的约定为准:
- JSON 配置示例(说明性文本,不作为代码块呈现,客户端不需要额外依赖): { "name": "claude-cognitive-mcp-server", "transport": "stdio", "http": { "port": 8080, "host": "0.0.0.0", "cors": true, "sessionTimeout": 1800000 }, "version": "1.0.0", "command": "node", "args": ["dist/mcp/index.js", "--transport", "stdio"] }
- 说明
- name:服务器对外标识名称,便于在多个 MCP 服务中区分。
- transport:默认传输类型,这里采用 stdio,后续也可切换为 http(需要使用 http 配置)。
- http:若使用 HTTP 传输,需要配置端口、主机、跨域等参数以及会话超时设置。
- version:服务器版本标识,便于对齐客户端与服务器版本。
- command/args:MCP 服务端的启动命令及参数,客户端据此启动并连接到服务。
-
基本使用方法
- 启动 MCP 服务器后,MCP 客户端通过配置的启动命令和参数建立连接,发送资源读取、工具调用、Prompt 获取等请求,服务器返回标准的 JSON-RPC 响应或通知。
- 通过服务器暴露的工具和资源接口,LLM 客户端能在会话中获取上下文并执行外部功能,提升对代码库的理解与交互能力。
-
运行与扩展
- 本实现具备跨传输协议的扩展潜力,未来可扩展到 SSE/WebSocket 等通道,提升并发与实时性。
- 与 Mind/Hindsight 的深度整合为 MCP 提供丰富的语义上下文数据源,提升 LLM 对代码库的理解与推理能力。
-
备注
- 该仓库中已经包含了 MCP 相关的处理器、工具定义、以及服务器端核心组件(具体实现文件位于 src/mcp/),可作为 MCP 服务器实现的完整参考。确保运行环境具备 Node.js 版本要求,并按项目文档完成依赖安装与构建流程。