通过轻量级运动补偿实现实时视频去模糊

导读在动态环境中捕获的视频通常会受到运动模糊的影响。它降低了视频的感知质量,甚至降低了视觉识别任务的性能。当前的视频去模糊方法要么需要...

在动态环境中捕获的视频通常会受到运动模糊的影响。它降低了视频的感知质量,甚至降低了视觉识别任务的性能。当前的视频去模糊方法要么需要大量计算,要么会降低去模糊质量。

arXiv.org最近的一篇论文提出了一种视频去模糊框架,该框架减少了计算开销,但仍然提供了利用视频帧中的时间信息所需的足够性能。研究人员依靠一个轻量级的多任务单元,以和谐的方式最大化去模糊和运动补偿任务之间的网络共享。提出了堆叠架构以允许灵活控制去模糊质量和计算成本之间的权衡。

与具有类似去模糊的相应先前方法相比,所提出的模型显示出更快的运行时间,并实现了实时视频去模糊。

虽然运动补偿极大地提高了视频去模糊的质量,但单独执行运动补偿和视频去模糊需要巨大的计算开销。本文提出了一种实时视频去模糊框架,该框架由一个轻量级的多任务单元组成,以有效的方式支持视频去模糊和运动补偿。多任务单元专门设计用于使用单个共享网络处理两个任务的大部分,并由多任务细节网络和用于去模糊和运动补偿的简单网络组成。多任务单元最大限度地降低了将运动补偿纳入视频去模糊的成本,并实现了实时去模糊。此外,通过堆叠多个多任务单元,我们的框架在成本和去模糊质量之间提供了灵活的[email protected])。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢