Vespera Atelier 旨在成为一个通用的创意项目管理工具,通过可定制的模板适应小说写作、游戏开发、研究或代码管理等多种创意工作。它以“认知无障碍优先”的理念设计,帮助用户在不同状态下高效管理项目。其核心功能包括管理项目内容(Codices)、定义项目结构和 AI 交互模式(Templates),并计划通过 AI 辅助工作流进一步提升效率。
主要功能点
- 模板化项目管理: 通过 JSON5 模板定义不同类型的项目、内容结构和 AI 代理,实现系统对不同创意工作流的适应。
- 通用内容容器 (Codices): 统一管理各类文件(Markdown, 代码, 图像, 音频等),为其添加标签、关系和项目上下文,并与 AI 系统集成。
- LLM 上下文服务: 作为 MCP 服务器,提供标准化的方式向大型语言模型(LLM)客户端提供结构化的上下文信息,例如项目资源和 Prompt 模板。
- AI 辅助工作流: 支持 LLM 调用外部功能 (Tools) 进行任务处理,例如文档摘要、关键点提取等,并允许通过 Prompt 模板定制 LLM 交互。
- 会话与能力管理: 服务器负责管理与 LLM 客户端的会话,并声明其可用的功能和资源。
- 灵活的传输协议: 支持多种传输协议(如 Stdio, SSE, WebSocket)与 LLM 客户端进行通信。
安装步骤
Vespera Atelier 仍处于早期开发阶段,不建议普通用户直接安装使用。目前主要面向开发者。
- 环境准备: 确保您的系统已安装 Git、Node.js (推荐 LTS 版本) 和 Rust (通过 'rustup' 安装)。
- 克隆仓库:
git clone https://github.com/EchoingVesper/vespera-atelier.git cd vespera-atelier - 依赖安装:
- 前端/插件 (VS Code / Obsidian): 进入 'plugins/VSCode/vespera-forge' 或 'plugins/Obsidian/Vespera-Scriptorium' 目录,运行 'npm install'。
- Rust 后端 (Bindery): 进入 'packages/vespera-utilities/vespera-bindery' 目录,运行 'cargo build'。
- MCP 服务器 (Scriptorium): 核心 MCP 服务器位于 'packages/vespera-scriptorium',请查阅其内部 README 获取详细构建和运行指南。
- 运行开发服务器: 参照各子项目(如 VS Code 扩展)的开发文档启动。
服务器配置
Vespera Atelier 的核心 MCP 服务器组件 'vespera-scriptorium' 负责向 LLM 客户端提供上下文和功能。当 MCP 客户端需要连接此服务器时,需要配置以下信息:
{ "server_name": "Vespera Atelier MCP", "description": "Vespera Atelier 的 Model Context Protocol (MCP) 服务器,提供创意项目内容、模板和AI工作流集成。", "command": "<path_to_vespera-scriptorium_executable>", "args": [ "--port", "8080", "--log-level", "info", "--config", "<path_to_config_file.json>" ], "note_command": "请将 <path_to_vespera-scriptorium_executable> 替换为实际的 vespera-scriptorium 可执行文件路径。", "note_port": "端口号(默认为8080,可根据需要修改)。", "note_log_level": "日志级别(可选:trace, debug, info, warn, error)。", "note_config": "服务器配置文件的可选路径。" }
MCP 客户端通过上述 'command' 和 'args' 启动 'vespera-scriptorium' 服务器进程,并通过标准的 JSON-RPC 协议与它通信,获取资源、调用工具或渲染 Prompt 模板。
基本使用方法
一旦 MCP 客户端配置并连接到 Vespera Atelier MCP 服务器,LLM 应用即可:
- 请求项目资源: LLM 客户端可以向服务器请求特定的项目内容(Codices),例如获取某个文档的文本内容、元数据或关联信息。
- 调用 AI 工具: LLM 客户端可以指令服务器执行预注册的 AI 工具,例如对某个 Codice 进行摘要、翻译或代码审查。
- 渲染 Prompt 模板: LLM 客户端可以请求服务器根据指定的 Prompt 模板 ID 和变量,生成定制化的 Prompt 文本,用于后续的 LLM 交互。
- 会话管理: 服务器会为每个连接的 LLM 客户端管理会话状态,确保上下文的持续性和安全性。
信息
分类
开发者工具