Vespera Atelier 旨在成为一个通用的创意项目管理工具,通过可定制的模板适应小说写作、游戏开发、研究或代码管理等多种创意工作。它以“认知无障碍优先”的理念设计,帮助用户在不同状态下高效管理项目。其核心功能包括管理项目内容(Codices)、定义项目结构和 AI 交互模式(Templates),并计划通过 AI 辅助工作流进一步提升效率。

主要功能点

  • 模板化项目管理: 通过 JSON5 模板定义不同类型的项目、内容结构和 AI 代理,实现系统对不同创意工作流的适应。
  • 通用内容容器 (Codices): 统一管理各类文件(Markdown, 代码, 图像, 音频等),为其添加标签、关系和项目上下文,并与 AI 系统集成。
  • LLM 上下文服务: 作为 MCP 服务器,提供标准化的方式向大型语言模型(LLM)客户端提供结构化的上下文信息,例如项目资源和 Prompt 模板。
  • AI 辅助工作流: 支持 LLM 调用外部功能 (Tools) 进行任务处理,例如文档摘要、关键点提取等,并允许通过 Prompt 模板定制 LLM 交互。
  • 会话与能力管理: 服务器负责管理与 LLM 客户端的会话,并声明其可用的功能和资源。
  • 灵活的传输协议: 支持多种传输协议(如 Stdio, SSE, WebSocket)与 LLM 客户端进行通信。

安装步骤

Vespera Atelier 仍处于早期开发阶段,不建议普通用户直接安装使用。目前主要面向开发者。

  1. 环境准备: 确保您的系统已安装 Git、Node.js (推荐 LTS 版本) 和 Rust (通过 'rustup' 安装)。
  2. 克隆仓库:
    git clone https://github.com/EchoingVesper/vespera-atelier.git
    cd vespera-atelier
  3. 依赖安装:
    • 前端/插件 (VS Code / Obsidian): 进入 'plugins/VSCode/vespera-forge' 或 'plugins/Obsidian/Vespera-Scriptorium' 目录,运行 'npm install'。
    • Rust 后端 (Bindery): 进入 'packages/vespera-utilities/vespera-bindery' 目录,运行 'cargo build'。
    • MCP 服务器 (Scriptorium): 核心 MCP 服务器位于 'packages/vespera-scriptorium',请查阅其内部 README 获取详细构建和运行指南。
  4. 运行开发服务器: 参照各子项目(如 VS Code 扩展)的开发文档启动。

服务器配置

Vespera Atelier 的核心 MCP 服务器组件 'vespera-scriptorium' 负责向 LLM 客户端提供上下文和功能。当 MCP 客户端需要连接此服务器时,需要配置以下信息:

{
  "server_name": "Vespera Atelier MCP",
  "description": "Vespera Atelier 的 Model Context Protocol (MCP) 服务器,提供创意项目内容、模板和AI工作流集成。",
  "command": "<path_to_vespera-scriptorium_executable>",
  "args": [
    "--port", "8080",
    "--log-level", "info",
    "--config", "<path_to_config_file.json>"
  ],
  "note_command": "请将 <path_to_vespera-scriptorium_executable> 替换为实际的 vespera-scriptorium 可执行文件路径。",
  "note_port": "端口号(默认为8080,可根据需要修改)。",
  "note_log_level": "日志级别(可选:trace, debug, info, warn, error)。",
  "note_config": "服务器配置文件的可选路径。"
}

MCP 客户端通过上述 'command' 和 'args' 启动 'vespera-scriptorium' 服务器进程,并通过标准的 JSON-RPC 协议与它通信,获取资源、调用工具或渲染 Prompt 模板。

基本使用方法

一旦 MCP 客户端配置并连接到 Vespera Atelier MCP 服务器,LLM 应用即可:

  1. 请求项目资源: LLM 客户端可以向服务器请求特定的项目内容(Codices),例如获取某个文档的文本内容、元数据或关联信息。
  2. 调用 AI 工具: LLM 客户端可以指令服务器执行预注册的 AI 工具,例如对某个 Codice 进行摘要、翻译或代码审查。
  3. 渲染 Prompt 模板: LLM 客户端可以请求服务器根据指定的 Prompt 模板 ID 和变量,生成定制化的 Prompt 文本,用于后续的 LLM 交互。
  4. 会话管理: 服务器会为每个连接的 LLM 客户端管理会话状态,确保上下文的持续性和安全性。

信息

分类

开发者工具