项目简介

Deco CMS 是一个开源平台,旨在为开发者、工程师和AI爱好者提供构建AI原生软件的强大基础。它提供了一套鲁棒的工具,用于快速原型设计、开发和部署AI驱动的应用程序。其核心是一个基于Model Context Protocol (MCP) 构建的服务器,专注于以标准化方式向LLM客户端提供上下文信息和功能。

主要功能点

  • 资源托管与管理: 能够托管和管理各种资源,例如数据源和配置,并提供标准化的数据访问能力。
  • 工具注册与执行: 允许注册和调用外部功能,如外部API、数据库操作或更复杂的AI模型,供LLM应用调用。
  • Prompt模板定义与渲染: 支持定义和渲染可定制的Prompt模板,以实现灵活且可控的LLM交互模式。
  • 统一TypeScript栈: 提供前后端一体化的开发体验,允许开发者使用TypeScript无缝结合后端逻辑和自定义React/Tailwind前端,并通过类型化RPC进行通信。
  • 全球化、模块化基础设施: 构建于Cloudflare平台之上,确保低延迟和无限可扩展的部署能力,并支持通过Cloudflare API Key进行自托管。
  • 可视化工作区: 提供一个直观的界面,用于构建AI Agent、连接和管理工具、配置权限以及编排所有代码构建的功能。

安装步骤

要开始使用Deco项目并部署MCP服务器,请按照以下步骤操作:

  1. 准备环境: 确保您的开发环境中已安装以下JavaScript运行时之一:

  2. 创建新项目: 使用Deco CLI创建您的项目。在终端中运行以下命令:

    npm create deco
    # 或者,如果您使用Bun
    bun create deco

    此命令会提示您登录或在decocms.com上创建一个账户。

  3. 启动开发服务器: 进入新创建的项目目录,安装依赖项,然后启动本地开发服务器:

    cd <my-project-directory> # 替换为您的项目目录名称
    npm install
    npm run dev               # 服务器将在 http://localhost:8787 启动,并支持热重载

服务器配置(供MCP客户端使用)

MCP客户端需要以下配置信息来连接到Deco CMS MCP服务器。这里的 'command' 字段应理解为MCP服务器的HTTP端点URL,而不是一个可执行的命令行程序。

{
  "serverName": "Deco CMS MCP Server",
  "description": "连接到Deco CMS平台提供的Model Context Protocol (MCP) 服务器,用于管理和提供AI应用所需的资源、工具和Prompt。",
  "command": "https://api.decocms.com/mcp",
  "args": [
    "group=global"
  ],
  "notes": "Deco CMS MCP服务器通过HTTP协议提供JSON-RPC服务。MCP客户端应将'command'字段视为MCP服务器的入口URL。默认配置连接到全局MCP端点。如果需要连接到特定项目或组织下的MCP服务器,例如:'https://api.decocms.com/<org>/<project>/mcp',或指定不同的工具组,例如:在args中添加'group=Workflows',MCP客户端通常会通过其UI提供更友好的配置界面,或者您可手动调整此JSON配置。"
}

基本使用方法

在Deco项目中,您将主要与工具 (Tools)工作流 (Workflows) 两种核心构建块交互:

  • 定义工具: 在 'server/main.ts' 文件中,使用 'deco/mod.ts' 导出的 'createTool' 函数定义您的原子功能。这些工具可以封装对外部API、数据库或AI模型的调用。
  • 编排工作流: 使用Mastra运算符(例如 '.then', '.parallel', '.branch', '.dountil')来编排和组合您的工具,构建复杂的业务逻辑和Agent行为。
  • 本地开发: 运行 'npm run dev' 命令,您可以在本地环境中实时查看您的MCP服务器和UI的更改。
  • 部署到生产环境: 使用 'npm run deploy' 命令,您可以将您的Deco项目部署到Cloudflare Workers,实现全球范围内的可扩展服务。
  • 集成管理: 通过decocms.com仪表板管理您的集成。运行 'npm run gen' 可以生成类型化的客户端,方便在代码中调用这些集成。

信息

分类

AI与计算