当前位置: 首页 > java >正文

【论文精读】2024 CVPR--Upscale-A-Video现实世界视频超分辨率(RealWorld VSR)

文章目录

  • 一、摘要
  • 二、挑战
  • 三、Method
    • 3.1 前置知识
      • 3.1.1 预训练SD ×4 Upscaler
      • 3.1.2 Inflated 2D Convolution 扩展2D卷积
    • 3.2 Local Consistency within Video Segments 视频片段中的一致性
      • 3.2.1 微调时序U-Net
      • 3.2.2 微调时序VAE-Decoder
    • 3.3 跨片段的全局一致性 Global Consistency cross Video Segments
      • 3.3.1 无训练的递归隐码传播 Training-Free Recurrent Latent Propagation
    • 3.4 Inference with Additional Conditions
  • 四、实验设置
    • 4.1 数据集
  • 贡献总结

论文全称: Upscale-A-Video: Temporal-Consistent Diffusion Model for Real-World Video Super-Resolution
代码路径: https://github.com/sczhou/Upscale-A-Video
更多RealWolrd VSR整理在 https://github.com/qianx77/Video_Super_Resolution_Ref

一、摘要

基于文本的扩散模型在生成和编辑方面表现出了显著的成功,显示出利用其生成先验增强视觉内容的巨大潜力。然而,由于对输出逼真度和时间一致性的高要求,将这些模型应用于视频超分辨率仍然具有挑战性,而这一点又因扩散模型固有的随机性而变得更加复杂。我们的研究引入了Upscale-A-Video,一种用于视频上采样的文本引导的潜在扩散方法。该框架通过两个关键机制确保时间一致性:局部上,它将时间层集成到U-Net和VAE-解码器中,保持短序列内的一致性;全局上,在不进行训练的情况下,引入了一个流引导的递归潜在传播模块,通过在整个序列中传播和融合潜在信息来增强整体视频的稳定性。得益于扩散范式,我们的模型还提供了更大的灵活性,允许文本提示引导纹理生成,并通过可调节的噪声水平平衡修复与生成,从而实现逼真度与生成质量之间的权衡。大量实验表明,Upscale-A-Video在合成和现实世界基准测试中,以及在人工智能生成的视频中,都超过了现有的方法,展现出令人印象深刻的视觉真实感和一致性。

二、挑战

扩散去噪过程由于其固有的随机特性,在应用于视频任务时面临重大挑战。这些挑战包括时间不稳定性和闪烁伪影的出现,这在涉及较长视频序列的VSR任务中尤为明显。这些任务的复杂性不仅在于实现局部片段内的一致性,还在于在整个视频中保持连贯性。

三、Method

图片

3.1 前置知识

3.1.1 预训练SD ×4 Upscaler

使用预训练SD ×4 Upscaler,扩散的优化目标,UNet预测噪声
图片

3.1.2 Inflated 2D Convolution 扩展2D卷积

要将2D扩散模型用在视频任务上,需要将2D卷积扩展到3D卷积,增加额外的时间层(temporal layers),目标是继承单帧图像生成能力,增加时序连续性。

3.2 Local Consistency within Video Segments 视频片段中的一致性

其他方法:3D convolutions、temporal attention、cross-frame attention保证时序一致性

3.2.1 微调时序U-Net

如图2所示,
1、增加基于3D卷积的3D residual blocks作为时序层,插入预训练空间层中
2、时间注意力层沿时间维度执行自注意力,并关注所有局部帧。
3、加入了旋转位置嵌入(RoPE)[60],以便为模型提供时间的位置信息。
4、训练时候冻结2D结构的参数,保证单帧的生成效果

3.2.2 微调时序VAE-Decoder

如图2所示
1、同样加入3D residual blocks保证低级尺度的一致性
2、从输入通过Spatial Feature Transform (SFT)模块引入到VAE-Decoder第一层
3、同样只训练新添加的时序3D结构
4、损失函数用到L1 loss、 LPIPS perceptual loss 、 adversarial loss

3.3 跨片段的全局一致性 Global Consistency cross Video Segments

片段内一致性可以满足了,但是跨片段的一致性还是个问题,需要引入其他方式

3.3.1 无训练的递归隐码传播 Training-Free Recurrent Latent Propagation

1、RAFT计算光流optical flow

还需要计算有效区域,误差函数
图片
示意图如下

图片
通过光流来更新掩码
图片
M是有效区域,β是光流信息的利用程度,通过选择默认值0.5
在推断过程中,并不需要在每个扩散步骤中应用此模块。相反,我们可以选择 T ∗ 步骤进行潜在传播和聚合。在处理轻微的视频抖动时,可以选择在扩散去噪过程中较早整合此模块,而对于严重的视频抖动,例如 AIGC 视频,最好在去噪过程的后期执行此模块。(为什么?)

3.4 Inference with Additional Conditions

调整文本提示和噪声水平的附加条件,以影响去噪扩散过程。

四、实验设置

4.1 数据集

1、subset of WebVid10M 335k 分辨率336×596
2、YouHQ dataset
3、额外增加的高质量数据集 large-scale high-definition (1080 × 1920) dataset from YouTube, containing around 37K video clips

LQ采用RealBasicVSR

贡献总结

1、局部一致性和全局一致性

http://www.xdnf.cn/news/9679.html

相关文章:

  • 【计算机常识】--环境变量
  • 双路物理CPU机器上安装Ubuntu并部署KVM以实现系统多开
  • k8s上运行的mysql、mariadb数据库的备份记录
  • 低代码——表单生成器Form Generator详解(二)——从JSON配置项到动态渲染表单渲染
  • vscode调试stm32,Cortex Debug的配置文件lanuch.json如何写,日志
  • 《P2324 [SCOI2005] 骑士精神》
  • uniapp开发企业微信小程序时 wx.qy.login 在uniapp中使用的时候,需要导包吗?
  • TCP连接关闭过程的技术解析:从四次挥手到资源释放
  • 变频器从入门到精通
  • 【达梦数据库】临时表空间不足
  • MySQL 查询语句的执行顺序
  • 【Rust模式与匹配】Rust模式与匹配深入探索与应用实战
  • 变更数据捕获(CDC)与流处理引擎实现医疗数据实时同步(下)
  • 【C语言】函数指针及其应用
  • Python基础 | jupyter工具的安装与基本使用
  • AI 眼镜新纪元:贴片式TF卡与 SOC 芯片的黄金组合破局智能穿戴
  • 油猴脚本开发基础
  • 苹果公司计划按年份来重命名重大的软件,将升级iOS 18软件至iOS 26
  • Apache Kafka 实现原理深度解析:生产、存储与消费全流程
  • 如何将 WSL 的 Ubuntu-24.04 迁移到其他电脑
  • 【C语言极简自学笔记】项目开发——扫雷游戏
  • 【AI论文】论文转海报:迈向从科学论文到多模态海报的自动化生成
  • 【计算机网络】第2章:应用层—应用层协议原理
  • 记录一个难崩的bug
  • leetcode701.二叉搜索树中的插入操作:迭代法利用有序性寻找空节点插入点
  • 【评测】DuReader-Retrieval数据集之初体验
  • C++并集查找
  • 关于scrapy在pycharm中run可以运行,但是debug不行的问题
  • 联想小新pro 14 重新安装系统提示acpi-bios-error错误的解决方法
  • VSCode远程开发-本地SSH隧道保存即时修改