Aleph MCP 服务器

使用说明(Markdown 格式)

Aleph MCP 服务器

简要描述

  • Aleph 是一个基于 MCP 的后端实现,允许模型客户端以标准化方式读取资源、注册并执行工具,以及渲染并使用提示模板来进行对话式推理。它通过 JSON-RPC 与客户端对话,具备会话管理、能力声明和多传输协议支持(如 STDIO、SSE、WebSocket)的能力,旨在为 LLM 应用提供安全、可扩展的上下文服务框架。

主要功能点

  • 资源管理与上下文
    • 加载、查看、拆分与拼接大文本/文档上下文,支持多文档上下文集合。
    • 提供对上下文的搜索、片段查看、分块、以及基于内容的元数据描述。
  • 工具注册与执行
    • 内置一组工具(如执行代码、读取/写入文件、运行命令、代码测试等),并支持子代理的递归调用(sub_query、sub_aleph)。
    • 记录证据、跟踪信息增益、以及对能力使用的预算控制与日志追踪。
  • Prompt 模板与渲染
    • 提供可定制的系统提示模板,依据上下文类型、大小、结构等渲染初始互动消息。
  • 会话与预算管理
    • 会话状态、变量上下文、证据追踪、结论最终化等,支持预算约束(tokens、迭代、深度、子查询、墙时等)。
  • MCP 传输与扩展
    • 初始实现基于 STDIO 的 MCP 服务,后续可扩展为 SSE、WebSocket 等传输形式。
    • 具备远程 MCP 服务编排(Remote MCP)能力,可通过本地/远程进程协同工作。

安装步骤

  • 安装
    • 使用 pip 安装带 MCP 支持的版本:pip install "aleph-rlm[mcp]"
  • 启动服务器
    • 直接运行服务器进程,命令会提供一个 MCP 服务器端实现,默认监听 STDIO 传输,便于在协同代理中使用。
  • 验证与调试
    • 通过 MCP 客户端(如 Claude Code、Cursor、VS Code、Codex CLI 等)连接服务器,执行 get_status() 或 list_contexts() 等工具调用以确认服务器已就绪。

服务器配置(MCP 客户端需要的最小配置信息) 配置信息示例(JSON 格式,用于 MCP 客户端连接时的启动配置) { "mcpServers": { "aleph": { "command": "aleph", "args": ["--enable-actions", "--workspace-mode", "any", "--tool-docs", "concise"] } // 备注:以上为 MCP 客户端需求的最小起始配置,实际可根据环境调整工作区、子查询后端等选项 } }

  • 说明
    • server: 表示 MCP 服务器的标识名称
    • command: 启动 MCP 服务器的可执行名称
    • args: 启动参数(例如启用动作、工作区模式、工具文档详略等)
    • 客户端不需要直接修改服务器侧实现,只需提供上述配置以便建立连接并调用服务

基本使用方法

  • 与模型客户端对接
    • 客户端通过 JSON-RPC 向 Aleph MCP 服务器发送请求,获取资源、调用工具、获取并渲染 Prompt。
  • 常用工作流
      1. 使用 load_context 加载上下文(如文本、JSON、文件集合)
      1. 调用搜索、查看片段、分块以准备推理上下文
      1. 通过 exec_python 执行受控沙箱中的代码,探索数据
      1. 通过 sub_query / sub_aleph 进行递归的子代理推理
      1. 使用 think、evaluate_progress、summarize_so_far、finalize 等工具推进推理并给出最终答案
  • 运行与验证
    • 连接后在受控对话中尝试 get_status、list_contexts、finalize 等操作,确保会话与证据跟踪正常工作。

温馨提示

  • 了解并配置预算(tokens、迭代、深度、墙时、子查询等)以避免推理过程中的中断。
  • 如需与远程子代理协作,请参考 tests/remote MCP 相关用例,以熟悉远端服务器的接入与调用流程。
  • MCP 服务器侧实现包含丰富的本地工具、会话管理、以及对多代理协同的支持,适合需要本地化数据上下文驱动推理的应用场景。

关键词 递归语言模型, 本地上下文存储, sandbox 执行, 会话管理, 证据追踪

分类ID 6

服务器信息