用于视频去模糊的流导稀疏变换器
林静、蔡元浩、胡晓婉、王浩谦、闫友良、邹学毅、丁恒辉、张玉伦、拉杜·蒂莫夫特、吕克·凡·古尔
第39届机器学习国际会议记录,PMLR 162:13334-133432022年。
摘要
在时空邻域中利用相似和更清晰的场景补丁对于视频去模糊至关重要。然而,基于CNN的方法在捕捉长程依赖性和建模非局部自相似性方面存在局限性。本文提出了一种新的视频去模糊框架,即流引导稀疏变换器(FGST)。在FGST中,我们定制了一个自关注模块,即基于流引导稀疏窗口的多头自关注(FGSW-MSA)。对于模糊参考帧上的每个$query$元素,FGSW-MSA可以在估计光流的指导下,全局采样空间稀疏但高度相关的$key$元素,这些元素对应于相邻帧中的相同场景补丁。此外,我们提出了一种递归嵌入(RE)机制来传输过去帧中的信息并增强长期时间依赖性。综合实验表明,我们提出的FGST在DVD和GOPRO数据集上都优于最先进的(SOTA)方法,并且在实际视频去模糊中产生了令人满意的视觉效果。https://github.com/linjing7/VR-Baseline网站
引用本文
相关材料