项目简介
AI Writers Workshop 是一个 Model Context Protocol (MCP) 服务器,旨在为大语言模型(LLM)客户端提供丰富的叙事创作和分析工具。它通过标准化的方式管理故事资源、提供功能调用,支持 LLM 助手进行更深入、结构化的创意写作。
主要功能点
- 项目管理: 创建、组织和管理写作项目,为角色、场景、大纲等元素提供层级结构。
- 角色开发: 基于原型框架(如英雄、导师)创建角色,支持混合原型,并协助发展角色弧线。
- 叙事模式与情节: 提供多种叙事模式(如英雄之旅)、情节类型(如人与自然),支持自定义、组合和分析。
- 内容生成: 根据模式、角色和情节元素生成故事大纲和场景。
- 符号与主题: 探索主题的象征意义,并将其应用于项目元素,增强深度。
- 知识图谱: 存储和查询叙事元素(角色、地点、概念等)之间的复杂关系。
- 故事编译与生成: 将项目中的场景、角色等元素编译成完整的叙事草稿或生成更连贯的故事文章。
安装步骤
- 克隆仓库:
git clone https://github.com/angrysky56/ai_writers_workshop.git - 进入项目目录:
cd ai_writers_workshop - 确保环境: 请确保您安装了 Python 3.10 或更高版本,以及 'pip' 包管理器。
- 安装依赖: 使用 pip 安装项目及其依赖。
pip install . - 初始化项目(可选但推荐): 运行初始化脚本创建默认目录结构和示例数据。
或按照 README 中的说明运行:python -m mcp_server.initialize./run_server.sh setup
服务器配置
AI Writers Workshop 服务器是为MCP客户端(如Claude Desktop)设计的后端。LLM客户端需要知道如何启动和连接到此服务器。您需要在客户端的MCP服务器配置中填写以下信息:
{ "name": "AI Writers Workshop", // 服务器的唯一名称,方便客户端识别 "command": ["python", "-m", "mcp_server.server"], // 启动服务器进程的命令和其第一个参数 "args": ["--transport", "stdio"], // 传递给启动命令的额外参数。这里指定使用标准输入输出(stdio)协议。 // 根据您的需求和客户端支持,args 还可以配置其他传输协议和地址: // 如果使用 SSE (Server-Sent Events): // "args": ["--transport", "sse", "--host", "127.0.0.1", "--port", "8000"], // 如果使用 Streamable HTTP: // "args": ["--transport", "streamable-http", "--host", "127.0.0.1", "--port", "8000"], // 请根据实际启动方式选择和修改 args 参数。 "is_stdio": true // 如果 args 中指定了 --transport stdio,这里应设置为 true。 }
基本使用方法
- 启动服务器: 根据您的配置方式,使用相应的命令启动服务器(例如 'python -m mcp_server.server --transport stdio')。
- 连接客户端: 在支持MCP协议的LLM客户端中,添加并连接到配置好的AI Writers Workshop服务器。
- 发现能力: 客户端将自动发现服务器暴露的Resources (如 'file://patterns/heroes_journey') 和 Tools (如 'create_writing_project')。
- 与LLM交互: 使用LLM客户端通过自然语言与AI Writers Workshop进行交互。LLM将通过调用服务器暴露的Tools和访问Resources来理解您的请求并执行相应的叙事开发任务。例如,您可以请求LLM“创建一个名为'时空旅行者'的英雄角色,并将其添加到我的'科幻小说'项目中”,LLM客户端将负责调用服务器的 'create_character' 和 'add_project_element' 等工具。
信息
分类
AI与计算