从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)

发布于 2025-2-13 09:59
浏览
0收藏

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

论文链接:https://arxiv.org/pdf/2502.05179
项目链接:https://github.com/FoundationVision/FlashVideo


亮点直击

  • 提出了FlashVideo,一种将视频生成解耦为两个目标的方法:提示匹配度和视觉质量。通过在两个阶段分别调整模型规模、分辨率和优化策略,本文的方法相比现有方法实现了更高的效果和效率。
  • 通过流匹配(flow matching)构造了从低质量视频到高质量视频的近乎直线的 ODE 轨迹,使得视频在仅 4 次函数评估内即可融入丰富细节。
  • 本文的方法在 VBench-Long 上达到了82.99的顶级分数,同时实现了极快的函数评估时间。两阶段设计使用户能够在全分辨率生成前预览初始输出,从而降低计算成本和等待时间。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

总结速览

解决的问题

  • 现有 DiT 生成的视频模型需要大规模参数和大量计算资源,导致计算成本高昂。
  • 生成高质量视频需要高分辨率和大量去噪步骤,进一步增加计算负担。
  • 现有的两阶段方法仍然依赖从高斯噪声重建高分辨率视频,计算效率低下。

提出的方案

  • 设计 FlashVideo 两阶段框架:
  • 第一阶段低分辨率视频生成,保证内容和运动的语义一致性。
  • 第二阶段通过流匹配(flow matching)提升分辨率,增强细节,同时减少计算开销。
  • 采用流匹配技术,直接优化 ODE 轨迹,使第二阶段生成不依赖高斯噪声。

应用的技术

  • DiT(Diffusion Transformer)架构,利用 3D 全注意力机制建模时间和空间关系。
  • 流匹配(flow matching),直接优化低分辨率到高分辨率的 ODE 轨迹,避免从高斯噪声重建。
  • 计算优化,第一阶段使用 5B 参数模型,第二阶段降至 2B 参数,并减少函数评估步骤至 4 步。

达到的效果

  • 大幅提升计算效率:1080p 视频生成时间从单阶段 2150s 降至 102s,比传统两阶段方法快 5 倍。
  • 保障生成质量:低分辨率阶段保证语义一致性,高分辨率阶段增强细节,确保视觉质量。
  • 更高的商业可行性:允许用户在低分辨率阶段预览结果,减少不必要的计算成本。

方法

总览

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

低分辨率阶段 I

在第一阶段,目标是生成与输入提示高度匹配的内容和运动模式。为此,初始化了一个大规模模型 CogVideoX-5B,其包含 50 亿 参数。为了提高计算效率,采用 参数高效微调(PEFT),使模型适应 270p 的低分辨率。

调整 MMDiT 架构的目标分辨率相对简单,可通过在所有 注意力层前馈网络(FFN) 以及 自适应层归一化(adaptive layer normalization) 中应用 LoRA(秩设为 128)来实现。

与全参数微调相比,PEFT 在小批量(batch size = 32)训练时表现出更强的鲁棒性,而全参数微调在如此小的批量下会显著降低生成质量。所有其他配置设置(包括去噪调度器和预测目标)均与 CogVideoX-5B 保持一致。

高分辨率阶段 II

模型架构
为了增强细粒度细节,本文采用了另一种遵循 CogVideoX-2B设计的模型。用 3D RoPE 替换了原始位置频率嵌入,以在推理时更好地扩展至更高分辨率(见下图 8)。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

与 [He et al. 2024] 采用的 时空分解(spatial-temporal decomposition)时间切片注意力(time-slicing attention) 方法不同,完整的 3D 注意力机制 对于保持视频在剧烈运动和尺度变化情况下的增强视觉细节一致性至关重要(见下图 7)。如上图 2所示,第一阶段的语言嵌入被直接用于该阶段。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

在此模拟数据上训练,使模型能够增强高频细节,从而改善整体清晰度(见下图 3)。然而,仅通过 DEG(_{pixel}) 进行低分辨率数据模拟会使低、高分辨率视频之间保持较强的保真度,这限制了模型在高分辨率下对小物体的结构再生能力,尤其是在第一阶段输出中存在伪影时。例如,当结构表现较差时,小物体可能会变得模糊,如下图 3中的树枝,或下图 5(e) 中失真的眼部特征。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

为了解决这个问题,本文引入了 隐空间退化(latent degradation, DEG({latent})**),即在隐空间表示中加入高斯噪声。这一方法允许模型在输入数据的基础上产生偏离,从而为小物体生成更合理的结构。如上图 3所示,相比 **DEG({pixel}),DEG(_{latent}) 组合策略能够生成更加清晰且细节丰富的树枝及背景小物体,显著提升视觉质量


训练过程中的整体模拟流程如下所述:


首先,对高质量视频在像素空间进行退化处理,得到退化版本;然后,该退化视频被编码至隐空间空间,表示为

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

参数 step 决定了噪声增强的强度。为了确保模型能够感知隐空间空间中的噪声强度,我们引入了噪声强度嵌入,并将其添加到时间嵌入中。在推理阶段,仅对第一阶段的输出应用 DEGlatent。


为了确定合适的 DEGlatent 强度,在初始训练时使用较宽的噪声步长范围(600-900)。然后,我们在不同的噪声步长下评估模型的结果(如图 9 (c) 和表 10 所示)。根据这些结果,我们在后续训练阶段将噪声范围限制在 650-750。

粗到精训练
直接在高分辨率上训练需要大量计算成本。3D RoPE作为一种相对时空编码,为我们的模型提供了良好的分辨率可扩展性。因此,首先在低分辨率图像和视频(540×960)上进行大规模预训练,然后再扩展到目标分辨率 1080p(1080 ×1920)。在后期训练中,观察到明显的性能波动,因此进一步使用一小部分符合人类偏好的高质量样本进行微调。这个低成本的额外微调阶段显著提升了模型的性能。

实验

数据收集

首先收集了大量 1080p 视频,并通过美学和运动特征筛选,构建了一个高质量数据集,最终获得 200 万个高质量样本。运动筛选使用 RAFT 计算平均光流,并丢弃运动得分低于 1.1 的片段。


为了确保第二阶段模型学习多样化的纹理细节,进一步收集了 150 万张分辨率为 2048 ×2048 的高质量图像。所有视频和图像均使用内部字幕生成模型进行详细标注。此外,手动筛选了 50,000 个视频,这些视频具有高美学质量、丰富的纹理和显著的运动多样性,以用于人类偏好对齐。

训练设置

对于第一阶段模型的训练,我们仅使用视频数据,并将其调整为 270p 分辨率。模型训练了 50,000 次迭代,批次大小为 32,基础学习率为 4 ×10⁻⁵。使用 AdamW 优化器,β1 = 0.9,β2 = 0.95,权重衰减为 1 ×10⁻⁴,并将梯度裁剪设置为 0.1。


第二阶段模型,包括预训练和人类偏好对齐,使用批次大小为 64,其他超参数与第一阶段相同。预训练分为三个阶段:(1)在 540 ×960 的图像补丁上训练 25,000 次迭代,这些补丁来自 2048 ×2048 的高分辨率图像;(2)在混合数据集上训练 30,000 次迭代,数据集包括 540 ×960 的图像补丁和视频,比例为 1:2;(3)在全分辨率的 1080 ×1920 视频上训练 5000 次迭代。最后,在人类偏好对齐数据集上进行 700 次迭代的微调。


对于隐空间退化,在阶段(1)、(2)和(3)的前 1000 次迭代中,初步应用了 600–900 的噪声步长范围。根据下表 10 中的发现,我们随后将噪声范围缩小到 650–750,用于(3)和(4)中的剩余训练。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

定性结果

本节展示了基于不同用户提示的二阶段视频生成结果的可视化。第一阶段的输出优先保证内容和运动的高保真度,而第二阶段进一步细化细节,减少生成伪影,从而增强整体视觉质量。

二阶段生成结果
如下图 4 所示,第一阶段输出(顶部行)展现了强烈的提示保真度和流畅的运动。提示中指定的关键视觉元素(加粗部分)被准确生成。然而,仍可能存在伪影和细节不足的纹理问题(由红色框标出)。相比之下,第二阶段的输出(底部行)通过精细化小物体的结构和增强纹理丰富度,显著提高了视觉质量。显著的改进包括人脸细节的细化(a, d)、动物毛发的精细渲染(b, c)、植物结构的复杂细节(a, b)以及织物纹理的提升(d),这些都在第二行的绿色框中突出显示。此外,尽管存在大量运动,由于第二阶段集成了完整的注意力机制,高频细节依然保持了时间一致性。更多未压缩的案例可见于我们的项目页面。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

第二阶段的伪影修正与细节增强
为了进一步展示第二阶段细化的有效性,在下图 5 中提供了关键帧的额外示例。与第一阶段的输出(红色标记)相比,第二阶段的结果(绿色标记)通过抑制伪影和丰富细节,表现出了显著的改进。这些增强表现为:更连贯的油画风格向日葵(a)、更精细的皱纹和发丝渲染(b)、动物和植物纹理结构的改善(c, d)以及面部和物体伪影的修正(e)。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

定量结果

首先在 VBench-Long基准上评估我们的模型,使用其长提示进行评估。通过使用多种广泛使用的非参考图像和视频质量评估指标,评估第二阶段的视觉质量提升。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

VBench-Long 基准遵循 VBench-Long 的标准评估协议,每个提示生成五个视频。需要注意的是,由于 VBench 的评估指标倾向于偏好较高的帧率,应用了一个实时视频帧插值方法 ,将帧率从 8 fps 升级到 24 fps。这个插值过程几乎没有后处理时间(在 4 秒以内),确保了与高帧率方法的公平比较。关于 VBench 帧率偏好的更详细讨论,见补充材料。


如下表 1 所示,8fps 和 24fps 模型都取得了超过 81 的高语义分数。然而,仅使用第一阶段模型时,审美和成像质量分数低于顶级方法,270p 的得分分别为 60.47 和 61.39。应用第二阶段后,两个质量分数显著提高,分别达到了大约 62.29 和 66.21,如表 1 所示。这些结果验证了本文的方法,即在第一阶段初步降低分辨率,以确保在较低计算成本下保持高提示保真度,随后在第二阶段进行质量提升。另一方面,整个功能评估只需约 2 分钟,显著优于其他方法的效率。例如,Hunyuan Video使用一个较大的 13B 单阶段模型,生成 720p(720 ×1280)结果的总评估时间为 1742 秒。相比之下,本文的方法不仅展示了更高的效率,还生成了更高分辨率的输出。此外,用户可以在仅 30 秒内获得 270p 的初步预览,从而决定是否继续进行第二阶段或调整输入提示。这种灵活性显著提升了用户体验。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

与视频增强方法的比较
本节通过将第二阶段方法与几种最先进的视频增强方法进行比较,全面评估其有效性。这些方法包括VEnhancerUpscale-a-VideoRealBasicVSR 。本文的评估包括基于第一阶段输出的定量和定性分析。


为了进行此评估,创建了一个精心挑选的测试集Texture100,该测试集包含100个多样化的文本提示,描述了角色、动物、织物、景观等视觉元素。这些提示被用来生成低分辨率的6秒49帧视频,作为视频增强比较的输入。

定量分析

如下表2所示,FlashVideo在各种质量指标上始终优于竞争方法,展示了在视觉质量效率上的显著优势。尽管RealBasicVSR(基于GAN的方法)在一些指标上取得了有竞争力的结果,但其输出常常表现出过度平滑,这可能与人类的感知偏好不一致。因此,建议将定量指标视为补充参考,重点关注定性评估

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

与此同时,基于扩散VEnhancer展示了更强的生成能力,但它的输出经常与输入视频偏离,导致保真度受到损害。它的输出通常经历了显著的结构性变化,这与我们增强视觉质量的设计原则相违背。此外,VEnhancer使用了独立的空间-时间模块和时间切片,这可能会减少在扩展视频序列中的内容一致性——这是我们将在后续讨论中进一步探讨的限制。另外,它的高NFE(网络函数评估)导致了更大的计算开销,使得高分辨率生成变得更加耗时。


与此相比,FlashVideo速度上几乎比VEnhancer快了七倍,同时生成更清晰的高频细节,如上表2所示。

定性分析

下图6和图7提供了FlashVideo与其他方法的视觉质量比较。

  • 图6 (a):这是一场展示女人面部和模糊背景的场景,突出了性能差异。本文的方法有效地重建了复杂的面部细节,并通过高频纹理丰富了背景,同时保持了结构完整性保真度。相比之下,VEnhancer提高了面部清晰度,但显著改变了背景,失去了场景中重要的视觉元素,如“站立水域”和暗色调。其他方法,如Upscale-a-VideoRealBasicVSR未能纠正面部伪影,并引入了过度平滑,降低了逼真度。
  • 图6 (b):在这个案例中,FlashVideo增强了猫体上的纹理细节,同时保持了原始输入的一致性,并生成了更清晰的个体毛发。我们模型中的全注意力机制确保了内容一致性,超越了VEnhancer,后者在细节上出现不一致。
  • 图7:在这个序列中,摄像机从远景过渡到近景,导致了显著的运动和尺度变化FlashVideoVEnhancer在初始输入上都显示了改进。然而,VEnhancer在保持面部身份方面遇到困难,并引入了夹克纹理和背景元素的不一致。FlashVideo有效地缓解了这些问题,确保了整个序列中的视觉质量稳定一致。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

消融研究

本节进行了一系列消融研究,以评估本文方法中的关键设计。首先,比较了LoRA微调与全参数微调在将第一阶段适配到新分辨率时的优势。接着,评估了Stage II中RoPE的有效性。然后,我们详细描述了用于训练Stage II模型的低质量视频模拟策略。此外,还探讨了将模型输出与人类偏好对齐的重要性。最后,分析了不同推理超参数对最终性能的影响。

LoRA与全参数微调在第一阶段的比较

在批量大小为32的设置中,将LoRA微调与全参数微调进行了比较,目的是在相同的迭代次数下训练第一阶段模型,并将其适配到270p分辨率。使用Texture100评估帧和视频质量,使用VBench-Long评估与语义相关的分数,如下表4所示。在这种配置下,全参数微调倾向于产生更多的伪影,导致视觉质量和语义保真度的下降。相反,LoRA微调在有效适配到较低分辨率的同时,保留了原始模型的生成能力。根据效率和性能的综合考虑,选择了LoRA策略。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

第二阶段中的位置嵌入

为了实现高效训练,首先在低分辨率下训练第二阶段模型,然后在更高分辨率下应用微调。此外,我们的目标是使模型能够生成比训练时使用的分辨率更高质量的视频。为了实现有效的分辨率泛化,我们探索了使用代表性的位置嵌入。具体而言,我们比较了来自2亿DiT模型的默认绝对位置嵌入 和旋转位置嵌入(RoPE),发现RoPE在此类视频增强任务中表现更优。


使用两种位置嵌入在540×960分辨率下训练模型,并在三个设置下进行测试:540×960、1080×1920和1440×2560。对于更大的分辨率,我们使用位置嵌入外推。如下图8所示,虽然两种位置嵌入在训练分辨率下都能产生令人满意的结果,但RoPE在推理更大分辨率时能够始终增强细节。相比之下,绝对位置嵌入在超过训练分辨率时显现出明显的伪影。基于这些发现,在训练第二阶段模型时采用了RoPE。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

在使用RoPE训练完1080p(1080×1920)分辨率的模型后,我们进一步扩展推理分辨率到2K(1440×2560),并使用基于RoPE的外推方法。如下表5所示,本文的模型在2K分辨率下的视觉质量有所提升,从视觉比较中可以观察到。然而,推理时间显著增加,从74.4秒增加到209.8秒。推测,更大的分辨率更好地激发了我们模型的细节生成能力,这与在大型语言模型中观察到的推理扩展规律相一致。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

第二阶段中的低质量视频模拟

本文通过视觉示例(见前面图3)展示了在第二阶段训练过程中,结合隐空间和像素降解模拟低质量视频的重要性。在本节中,提供了更为详细的定量评估。


为了提高计算效率,使用5帧1080p视频输入进行实验。训练了两个模型,迭代10,000次:一个仅应用像素降解,另一个同时应用像素和隐空间降解。如下表6所示,基线表示第一阶段的结果。当在第二阶段模型中应用像素降解(DEGpixel)时,第一阶段的输出得到了显著改善,高频纹理被加入,整体视觉质量得到了提升。此外,结合隐空间降解(DEGlatent)进一步增强了效果,产生了更清晰、更真实的小物体和背景细节。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

第二阶段中的人类偏好对齐

在实验中,1080p分辨率下的训练表现出不稳定性,表现为不同检查点(每500次迭代)间性能波动。我们将这种不一致归因于训练样本质量的变化。为了解决这个问题,我们手动策划了一个包含50,000个样本的高质量数据集,特别根据强烈的人类偏好选择。我们的模型在这个精细化的数据集上进行快速微调,以稳定训练并提高性能,然后在Texture100基准上进行评估,如下表7所示。尽管选定数据集的大小相对较小,但我们观察到美学质量和细节丰富度方面的显著提升。这些结果突出了在微调过程中融入人类偏好的有效性。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

推理超参数

在测试阶段,用户可以灵活调整多个超参数——即函数评估次数(NFE)、无分类器引导(CFG)和隐空间降解强度(噪声强度)——以满足特定需求。在图9中提供了这些超参数如何影响性能的详细分析,并在表8、9和10中报告了相应的质量评分。除非另有说明,否则这些超参数的默认值设置为NFE=4、CFG=13和NOISE=675。

函数评估次数(NFE)
如下图9(a)所示,当NFE=1时,处理后的视频呈现轻微的模糊感。增加NFE可以提高视觉质量,面部细节更加清晰,例如牙齿和头发,树叶和毛衣等元素的纹理更加锐利,在NFE=4时表现尤为明显。当NFE超过4时(即NFE=5或更高),大多数情况下增加该值不会带来显著的视觉提升。下表8中报告的某些指标的定性结果验证了这一趋势,与视觉观察一致。建议用户在实际使用中将NFE调整至4到6之间。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

无分类器引导(CFG)
图9(b)展示了CFG尺度的影响。当CFG=1时,结果仍然模糊,细节不足。随着CFG值的增加,视频内容变得更加清晰且细节更为丰富,例如耳环等细节变得更加明显。具体而言,CFG值在10到13之间可以获得令人满意的结果,能够平衡锐度和细节。然而,CFG值超过13后,锐度过高,导致纹理显得不自然。如下表9所示,随着CFG从1增加到13,图像和视频质量评分都有所提高,但当CFG超过13时,多个指标的评分下降。

从低清到4K的魔法:FlashVideo突破高分辨率视频生成计算瓶颈(港大&港中文&字节)-AI.x社区

隐空间降解强度
隐空间降解强度通过公式2中的NOISE步骤量化,表示施加到第一阶段视频隐空间变量上的降解程度。如图9(c)所示,在较低的降解水平下,增强后的视频保持较高的与原始输入的一致性。这种一致性有助于维持整体内容的完整性,但可能会妨碍伪影的修复,并限制细节的生成,如手指、吉他弦和表面纹理等。然而,增加噪声强度有助于生成更多的视觉细节,但如果噪声过多,可能会扭曲结构或引入模糊,这是由于第二阶段生成能力的固有限制。在初始训练阶段,使用了600-900的广泛噪声步长范围。通过评估不同噪声步长下的模型性能(如前面表10上部所示),发现650-750的范围能够获得与视觉观察一致的令人满意的结果。因此,在后续训练阶段,采用了更窄的范围,最终性能如表10下部所示。

讨论与局限性

讨论

在这一部分,分享了一些洞见,旨在帮助读者更清晰地理解我们工作设计原则和定位,并为隐空间的未来改进提供指导。

隐空间降解强度的调整原则
选择合适的隐空间降解强度对于训练Stage II模型至关重要。我们认为,最小化伪影和保持原始内容完整性之间的平衡是关键。我们建议根据信噪比(SNR)调整隐空间降解强度,即当分辨率或视频帧数增加时,应增加噪声步长。值得注意的是,帧数对噪声步长的影响大于分辨率,因为跨多个帧的视觉内容展现出更强的相关性,不容易被干扰。例如,在初步实验中,当使用17帧视频时,输入中的伪影可以通过噪声步长500得到纠正,而当帧数增加到49帧时,最佳噪声范围则为650到750,明显高于前者。

保真度与视觉质量提升的平衡
在维持保真度与提高视觉质量之间存在微妙的平衡。与真实世界的视频增强不同,输入视频通常缺乏高频细节,而第一阶段生成的视频往往包含一些微妙的结构缺陷或伪影,需要进一步修复。传统的超分辨率方法专注于保持高保真度,无法有效地解决这些问题。相反,将第一阶段输出作为粗略指导并再生新内容也无法达到理想效果,因为这与我们的设计理念相冲突。我们将第一阶段的输出视为低成本的预览,它必须与最终结果密切对齐。为实现这一平衡,我们仔细调整了两种策略的强度,确保在不妥协原始内容完整性的情况下提高视觉质量。

Stage II是否可以作为通用的视频增强模型?
值得注意的是,目前的训练设置是专门为1080p设计的,不适合作为处理不同分辨率或帧数视频的通用增强方法。然而,我们相信,随着进一步的优化,例如引入关于分辨率和帧数的更多输入信息,模型可以适应处理更广泛的场景。我们计划在未来的工作中探索这一方向。

视频长度增加带来的挑战
视频增强比单张图像处理更具挑战性,因为它需要确保在整个视频序列中新增细节的一致性。这要求模型不仅要提高视觉质量,还要管理跨帧的复杂视觉关系和运动。在Stage II中,通过采用3D全注意力机制和调整降解强度来解决这些挑战。然而,随着视频长度的增加,3D全注意力的计算需求呈平方级增长。此外,如果降解强度没有仔细调整,模型可能会通过直接引用多个帧来恢复细节,从而在推理过程中妥协其生成能力。

Stage II中的稀疏注意力
可视化了Stage II中的注意力图,发现空间上的稀疏性特别显著,相较于时间上的稀疏性。我们将这一现象归因于当前第一阶段输出中的适度运动强度。为减少Stage II的计算成本,应用了FlexAttention,通过实现基于窗口的时空注意力(H=11, W=11, T=7)。结果表明,当第一阶段的输出包含低运动时,该方法具有显著提高的效率表现。然而,当运动较大时,我们观察到再生的视觉细节存在不一致和模糊的情况。建议,未来的工作可以通过根据运动强度动态调整窗口大小来解决这一问题。


两阶段的分辨率无论是在第一阶段(从270p到360p,结果见补充材料)还是在第二阶段(从1080p到2K),提高分辨率都会改善我们的结果。在足够的计算资源下,可以在两个阶段都追求更高的分辨率。选择270p作为第一阶段的分辨率,是因为它能够在仅30秒的时间内生成初步结果,使用户能够迅速评估是否需要在Stage II中进行进一步计算。这相比于当代方法具有明显的优势。

局限性

高分辨率视频的VAE解码耗时
由于GPU内存限制,解码1080p视频需要进行空间和时间切片,这一过程十分耗时。并行处理的工程进展以及更高效的VAE架构对于加速高分辨率视频的生成至关重要。

推理时的长文本提示
训练中采用的文本描述通常较长且详细,这可能增加用户在推理时提供提示的复杂性。未来的研究可以通过联合训练短文本提示或使用专门用于提示重写的语言模型来改进。这一进展能够显著提升用户体验。


快速运动的挑战由于数据量、质量和多样性的限制,Stage II可能在处理快速运动的视频时失败。隐空间的解决方案包括增加更多包含大运动的数据和扩大模型容量。

结论

FlashVideo,一种新颖的两阶段框架,分别优化了提示保真度和视觉质量。这种解耦使得模型能力和函数评估次数(NFE)能够在两个分辨率之间进行策略性分配,从而大大提高了计算效率。在第一阶段,FlashVideo优先考虑低分辨率下的保真度,利用较大的参数和足够的NFE;第二阶段则在低分辨率和高分辨率之间进行流匹配,利用较少的NFE有效生成细节。大量实验和消融研究验证了我们方法的有效性。此外,FlashVideo能够在极低成本下提供初步结果,使用户能够决定是否继续进入增强阶段。这一决策能力可以显著降低用户和服务提供商的成本,具有巨大的商业价值。


本文转自AI生成未来 ,作者:AI生成未来


原文链接:​​https://mp.weixin.qq.com/s/lJ1W5Ne-cAnDzIvYSKk0jA​

收藏
回复
举报
回复
相关推荐