项目简介

本项目是Aura AI伴侣的后台系统,包含一个符合Model Context Protocol (MCP) 标准的服务器 ('mcp_server.py')。它专门设计用于与外部的大型语言模型(LLM)客户端进行通信,允许这些客户端通过标准化的JSON-RPC协议访问Aura丰富的上下文信息和特定能力。这些能力包括但不限于访问用户对话记忆、进行情绪状态分析以及获取Aura认知框架(ASEKE)的详细信息。通过MCP接口,Aura能够作为更广泛AI生态系统中的一个智能组件,与其他支持MCP的系统集成,实现更复杂的AI工作流和多智能体交互。

主要功能点

Aura MCP服务器通过一系列“工具”向LLM客户端提供服务,主要功能包括:

  • 记忆搜索: 允许LLM客户端语义搜索用户过去的对话记忆。
  • 情绪模式分析: 提供用户历史情绪状态的趋势分析和洞察。
  • 对话存储: 使外部系统能够向Aura的记忆库中存储新的对话片段。
  • 用户档案获取: 检索Aura存储的用户个性化信息和偏好。
  • 用户数据导出: 支持导出用户的完整对话历史和相关模式数据。
  • 查询情绪系统信息: 提供Aura情绪智能模型的详细信息,包括支持的情绪类型、神经关联等。
  • 查询认知框架信息: 提供Aura内部ASEKE认知架构的详细描述。

安装步骤

要运行Aura MCP服务器,您需要先设置整个Aura后台环境。请遵循项目仓库README.md文件中提供的详细安装指南。关键步骤通常包括:

  1. 克隆(Clone)或Fork本项目到您的本地机器。
  2. 导航到'emotion_ai/aura_backend'目录。
  3. 确保您的系统安装了 Python 3.12+ 版本(推荐使用虚拟环境)。
  4. 根据README指示安装项目依赖。这通常涉及运行类似 './setup.sh' 的脚本或手动使用 pip 安装 requirements.txt 文件中的库(例如 'pip install -r requirements.txt')。
  5. 创建或编辑 '.env' 文件,配置必需的环境变量,特别是您的Google API Key ('GOOGLE_API_KEY=your_actual_api_key_here')。

服务器配置 (给MCP客户端看的)

Aura MCP服务器 ('mcp_server.py') 被设计为由MCP客户端启动和管理。MCP客户端需要一份配置信息来知道如何找到并运行这个服务器。这份配置通常是JSON格式,包含以下关键信息:

  • 'name': 服务器的标识名称 (例如: 'aura-companion')。
  • 'command': 启动服务器进程的命令 (例如: 'python')。
  • 'args': 传递给命令的参数列表,通常包含MCP服务器脚本的完整路径 (例如: ['path/to/your/cloned/repository/aura_backend/mcp_server.py'])。用户需要将'path/to/your/cloned/repository'替换为实际的项目路径。
  • 'transport': MCP客户端与服务器通信使用的协议 (例如: 'stdio' 表示通过标准输入/输出进行通信)。

MCP客户端会读取这份配置,并使用'command'和'args'来启动'mcp_server.py'脚本,然后通过指定的'transport'协议与其交互。

基本使用方法

MCP服务器通常不会独立直接运行供用户交互,而是作为LLM客户端或支持MCP的AI代理的后端服务。

  1. 确保Aura后端环境已按安装步骤正确设置。
  2. 配置您的MCP客户端。 参照上述“服务器配置”部分,在您的MCP客户端中设置连接到Aura MCP服务器的配置信息,确保'args'中的路径指向本地克隆的项目中的'emotion_ai/aura_backend/mcp_server.py'文件。
  3. 启动MCP客户端。 MCP客户端会负责启动'mcp_server.py'进程,并通过JSON-RPC协议调用Aura提供的工具(例如'search_aura_memories'、'analyze_aura_emotional_patterns'等),从而利用Aura的能力来增强LLM的交互或执行特定任务。

信息

分类

AI与计算