项目简介

WeMake企业级MCP服务器生态系统是一个综合性的解决方案,旨在为大型语言模型(LLM)提供安全、可扩展的后端服务。它使LLM能够以标准化方式访问企业数据、业务工具和AI代理。该生态系统包含多个专业化的MCP服务器,涵盖决策分析、推理认知、内存管理、内容处理和质量评估等多个领域,专注于GDPR合规性、德国医疗标准和在Cloudflare Workers上的零停机部署,确保了生产环境的可靠性和安全性。

主要功能点

  • 决策与分析框架: 提供多种决策分析工具,如结构化决策分析、伦理推理、约束求解和目标追踪,帮助LLM进行复杂的决策制定和评估。
  • 推理与认知能力: 支持结构化论证、类比推理、协作推理、顺序思维、元认知监控和科学方法,增强LLM的逻辑和高级认知能力。
  • 内存与数据管理: 实现持久化知识图谱,用于跨会话信息保留,并提供ACID兼容的多步操作事务管理。
  • 内容与媒体处理: 包含可视化推理(空间推理和ASCII可视化)和多模态内容合成器(文本和图像内容整合)。
  • 质量与评估: 提供偏见检测(语言模式分析)和多角色评估框架(如焦点小组),用于MCP服务器的评估。
  • 企业级特性: 采用Bun作为主要开发/运行时环境,支持Node.js和Cloudflare Workers兼容部署,全TypeScript原生开发提供类型安全,并集成GDPR合规性、审计日志和最小权限访问模式等企业级安全功能。

安装步骤

  1. 克隆仓库: 在终端中运行以下命令,将项目仓库克隆到本地:
    git clone https://github.com/Clarity-BI/mcp.git
  2. 进入项目目录: 进入刚克隆的项目主目录:
    cd mcp
  3. 安装依赖: 确保您已安装Bun运行时(如果未安装,请访问 bun.sh 查看安装指南)。 然后在项目根目录下运行以下命令安装所有依赖:
    bun install

服务器配置 (MCP客户端使用)

MCP客户端需要配置MCP服务器的启动命令和参数才能建立连接。以下是一个示例配置,展示了如何启动“内存服务器”(Memory Server)。您可以根据需要选择并配置相应的服务器,每个服务器的代码位于 'src/' 目录下的独立子目录中。

{
  "name": "memory-server",
  "command": "bun",
  "args": [
    "run",
    "start"
  ],
  "cwd": "src/memory",
  "environment": {
    "MEMORY_FILE_PATH": "/path/to/your/memory.jsonl"
  },
  "comment": "此配置用于启动Memory MCP服务器。'command'指定了运行时为Bun,'args'是启动Bun脚本的参数。'cwd'表示服务器的工作目录。'environment'中的'MEMORY_FILE_PATH'是可选的环境变量,用于指定知识图谱数据文件的存储路径,默认为当前目录下的memory.jsonl。请根据实际部署环境调整'/path/to/your/memory.jsonl'。"
}

其他服务器示例配置:

  • 决策框架服务器 ('decision-framework-server'):
    {
      "name": "decision-framework-server",
      "command": "bun",
      "args": [
        "run",
        "start"
      ],
      "cwd": "src/decision-framework",
      "comment": "此配置用于启动Decision Framework MCP服务器,提供结构化决策分析能力。"
    }
  • 伦理推理服务器 ('ethical-reasoning-server'):
    {
      "name": "ethical-reasoning-server",
      "command": "bun",
      "args": [
        "run",
        "start"
      ],
      "cwd": "src/ethical-reasoning",
      "comment": "此配置用于启动Ethical Reasoning MCP服务器,支持多框架伦理分析。"
    }
  • 类比推理服务器 ('analogical-reasoning-server'):
    {
      "name": "analogical-reasoning-server",
      "command": "bun",
      "args": [
        "run",
        "start"
      ],
      "cwd": "src/analogical-reasoning",
      "environment": {
        "AR_SILENT": "false"
      },
      "comment": "此配置用于启动Analogical Reasoning MCP服务器,进行结构化类比构建和映射。'AR_SILENT'环境变量控制是否在控制台打印详细的可视化输出('false'表示打印,'true'表示静默)。"
    }
  • 元认知监控服务器 ('metacognitive-monitoring-server'):
    {
      "name": "metacognitive-monitoring-server",
      "command": "bun",
      "args": [
        "run",
        "start"
      ],
      "cwd": "src/metacognitive-monitoring",
      "comment": "此配置用于启动Metacognitive Monitoring MCP服务器,支持知识边界和推理质量的自我监控。"
    }

基本使用方法

每个MCP服务器都作为独立的进程运行,并通过标准输入/输出 (stdio) 与MCP客户端通信。

  1. 启动MCP服务器: 选择您想要运行的服务器(例如 'memory')。 首先,进入该服务器的目录:

    cd src/memory

    然后,运行启动命令:

    bun run start

    服务器将在终端中输出类似 "Knowledge Graph MCP Server running on stdio" 的消息,表示已成功启动。

  2. 连接MCP客户端: 使用兼容Model Context Protocol的客户端(例如,一个LLM代理或一个自定义应用),根据上文提供的JSON格式配置服务器信息。客户端将通过JSON-RPC协议与服务器建立连接,并可以使用服务器暴露的工具、资源和提示模板。

  3. 调用工具: MCP客户端会通过JSON-RPC 'tools/call' 方法调用服务器暴露的工具。例如,'memory-server' 暴露了 'create_entities'、'read_graph' 等工具,客户端可以通过发送相应的JSON-RPC请求来操作知识图谱。

信息

分类

AI与计算