项目简介
Deco CMS 是一个开源平台,旨在为开发者、工程师和AI爱好者提供构建AI原生软件的强大基础。它提供了一套鲁棒的工具,用于快速原型设计、开发和部署AI驱动的应用程序。其核心是一个基于Model Context Protocol (MCP) 构建的服务器,专注于以标准化方式向LLM客户端提供上下文信息和功能。
主要功能点
- 资源托管与管理: 能够托管和管理各种资源,例如数据源和配置,并提供标准化的数据访问能力。
- 工具注册与执行: 允许注册和调用外部功能,如外部API、数据库操作或更复杂的AI模型,供LLM应用调用。
- Prompt模板定义与渲染: 支持定义和渲染可定制的Prompt模板,以实现灵活且可控的LLM交互模式。
- 统一TypeScript栈: 提供前后端一体化的开发体验,允许开发者使用TypeScript无缝结合后端逻辑和自定义React/Tailwind前端,并通过类型化RPC进行通信。
- 全球化、模块化基础设施: 构建于Cloudflare平台之上,确保低延迟和无限可扩展的部署能力,并支持通过Cloudflare API Key进行自托管。
- 可视化工作区: 提供一个直观的界面,用于构建AI Agent、连接和管理工具、配置权限以及编排所有代码构建的功能。
安装步骤
要开始使用Deco项目并部署MCP服务器,请按照以下步骤操作:
-
准备环境: 确保您的开发环境中已安装以下JavaScript运行时之一:
-
创建新项目: 使用Deco CLI创建您的项目。在终端中运行以下命令:
npm create deco # 或者,如果您使用Bun bun create deco此命令会提示您登录或在decocms.com上创建一个账户。
-
启动开发服务器: 进入新创建的项目目录,安装依赖项,然后启动本地开发服务器:
cd <my-project-directory> # 替换为您的项目目录名称 npm install npm run dev # 服务器将在 http://localhost:8787 启动,并支持热重载
服务器配置(供MCP客户端使用)
MCP客户端需要以下配置信息来连接到Deco CMS MCP服务器。这里的 'command' 字段应理解为MCP服务器的HTTP端点URL,而不是一个可执行的命令行程序。
{ "serverName": "Deco CMS MCP Server", "description": "连接到Deco CMS平台提供的Model Context Protocol (MCP) 服务器,用于管理和提供AI应用所需的资源、工具和Prompt。", "command": "https://api.decocms.com/mcp", "args": [ "group=global" ], "notes": "Deco CMS MCP服务器通过HTTP协议提供JSON-RPC服务。MCP客户端应将'command'字段视为MCP服务器的入口URL。默认配置连接到全局MCP端点。如果需要连接到特定项目或组织下的MCP服务器,例如:'https://api.decocms.com/<org>/<project>/mcp',或指定不同的工具组,例如:在args中添加'group=Workflows',MCP客户端通常会通过其UI提供更友好的配置界面,或者您可手动调整此JSON配置。" }
基本使用方法
在Deco项目中,您将主要与工具 (Tools) 和 工作流 (Workflows) 两种核心构建块交互:
- 定义工具: 在 'server/main.ts' 文件中,使用 'deco/mod.ts' 导出的 'createTool' 函数定义您的原子功能。这些工具可以封装对外部API、数据库或AI模型的调用。
- 编排工作流: 使用Mastra运算符(例如 '.then', '.parallel', '.branch', '.dountil')来编排和组合您的工具,构建复杂的业务逻辑和Agent行为。
- 本地开发: 运行 'npm run dev' 命令,您可以在本地环境中实时查看您的MCP服务器和UI的更改。
- 部署到生产环境: 使用 'npm run deploy' 命令,您可以将您的Deco项目部署到Cloudflare Workers,实现全球范围内的可扩展服务。
- 集成管理: 通过decocms.com仪表板管理您的集成。运行 'npm run gen' 可以生成类型化的客户端,方便在代码中调用这些集成。
信息
分类
AI与计算