项目简介
WeMake企业级MCP服务器生态系统是一个综合性的解决方案,旨在为大型语言模型(LLM)提供安全、可扩展的后端服务。它使LLM能够以标准化方式访问企业数据、业务工具和AI代理。该生态系统包含多个专业化的MCP服务器,涵盖决策分析、推理认知、内存管理、内容处理和质量评估等多个领域,专注于GDPR合规性、德国医疗标准和在Cloudflare Workers上的零停机部署,确保了生产环境的可靠性和安全性。
主要功能点
- 决策与分析框架: 提供多种决策分析工具,如结构化决策分析、伦理推理、约束求解和目标追踪,帮助LLM进行复杂的决策制定和评估。
- 推理与认知能力: 支持结构化论证、类比推理、协作推理、顺序思维、元认知监控和科学方法,增强LLM的逻辑和高级认知能力。
- 内存与数据管理: 实现持久化知识图谱,用于跨会话信息保留,并提供ACID兼容的多步操作事务管理。
- 内容与媒体处理: 包含可视化推理(空间推理和ASCII可视化)和多模态内容合成器(文本和图像内容整合)。
- 质量与评估: 提供偏见检测(语言模式分析)和多角色评估框架(如焦点小组),用于MCP服务器的评估。
- 企业级特性: 采用Bun作为主要开发/运行时环境,支持Node.js和Cloudflare Workers兼容部署,全TypeScript原生开发提供类型安全,并集成GDPR合规性、审计日志和最小权限访问模式等企业级安全功能。
安装步骤
- 克隆仓库:
在终端中运行以下命令,将项目仓库克隆到本地:
git clone https://github.com/Clarity-BI/mcp.git - 进入项目目录:
进入刚克隆的项目主目录:
cd mcp - 安装依赖:
确保您已安装Bun运行时(如果未安装,请访问 bun.sh 查看安装指南)。
然后在项目根目录下运行以下命令安装所有依赖:
bun install
服务器配置 (MCP客户端使用)
MCP客户端需要配置MCP服务器的启动命令和参数才能建立连接。以下是一个示例配置,展示了如何启动“内存服务器”(Memory Server)。您可以根据需要选择并配置相应的服务器,每个服务器的代码位于 'src/' 目录下的独立子目录中。
{ "name": "memory-server", "command": "bun", "args": [ "run", "start" ], "cwd": "src/memory", "environment": { "MEMORY_FILE_PATH": "/path/to/your/memory.jsonl" }, "comment": "此配置用于启动Memory MCP服务器。'command'指定了运行时为Bun,'args'是启动Bun脚本的参数。'cwd'表示服务器的工作目录。'environment'中的'MEMORY_FILE_PATH'是可选的环境变量,用于指定知识图谱数据文件的存储路径,默认为当前目录下的memory.jsonl。请根据实际部署环境调整'/path/to/your/memory.jsonl'。" }
其他服务器示例配置:
- 决策框架服务器 ('decision-framework-server'):
{ "name": "decision-framework-server", "command": "bun", "args": [ "run", "start" ], "cwd": "src/decision-framework", "comment": "此配置用于启动Decision Framework MCP服务器,提供结构化决策分析能力。" } - 伦理推理服务器 ('ethical-reasoning-server'):
{ "name": "ethical-reasoning-server", "command": "bun", "args": [ "run", "start" ], "cwd": "src/ethical-reasoning", "comment": "此配置用于启动Ethical Reasoning MCP服务器,支持多框架伦理分析。" } - 类比推理服务器 ('analogical-reasoning-server'):
{ "name": "analogical-reasoning-server", "command": "bun", "args": [ "run", "start" ], "cwd": "src/analogical-reasoning", "environment": { "AR_SILENT": "false" }, "comment": "此配置用于启动Analogical Reasoning MCP服务器,进行结构化类比构建和映射。'AR_SILENT'环境变量控制是否在控制台打印详细的可视化输出('false'表示打印,'true'表示静默)。" } - 元认知监控服务器 ('metacognitive-monitoring-server'):
{ "name": "metacognitive-monitoring-server", "command": "bun", "args": [ "run", "start" ], "cwd": "src/metacognitive-monitoring", "comment": "此配置用于启动Metacognitive Monitoring MCP服务器,支持知识边界和推理质量的自我监控。" }
基本使用方法
每个MCP服务器都作为独立的进程运行,并通过标准输入/输出 (stdio) 与MCP客户端通信。
-
启动MCP服务器: 选择您想要运行的服务器(例如 'memory')。 首先,进入该服务器的目录:
cd src/memory然后,运行启动命令:
bun run start服务器将在终端中输出类似 "Knowledge Graph MCP Server running on stdio" 的消息,表示已成功启动。
-
连接MCP客户端: 使用兼容Model Context Protocol的客户端(例如,一个LLM代理或一个自定义应用),根据上文提供的JSON格式配置服务器信息。客户端将通过JSON-RPC协议与服务器建立连接,并可以使用服务器暴露的工具、资源和提示模板。
-
调用工具: MCP客户端会通过JSON-RPC 'tools/call' 方法调用服务器暴露的工具。例如,'memory-server' 暴露了 'create_entities'、'read_graph' 等工具,客户端可以通过发送相应的JSON-RPC请求来操作知识图谱。
信息
分类
AI与计算