基于专家混合训练的神经内隐词典学习
王培浩、范志文、陈天龙、王章扬
第39届机器学习国际会议记录,PMLR 162:22613-226242022年。
摘要
与基于离散网格的表示方法相比,用基于坐标的深度全连通网络表示视觉信号在拟合复杂细节和解决反问题方面具有优势。然而,获得这样一个连续的隐式神经表示(INR)需要对大量信号测量进行繁琐的全场景训练,这限制了它的实用性。在本文中,我们提出了一个通用的INR框架,该框架通过从数据收集中学习神经隐式字典(NID)并将INR表示为从字典中采样的小波的函数组合来实现数据和训练效率。我们的NID组装了一组基于协调的子网络,这些子网络经过调整以跨越所需的功能空间。训练后,通过求解编码系数,可以快速而稳健地获得一个看不见的场景表示。为了并行优化大量网络,我们借鉴了专家混合(MoE)的思想,使用稀疏选通机制设计和训练网络。我们的实验表明,NID可以将2D图像或3D场景的重建速度提高2个数量级,输入数据最多减少98%。我们进一步展示了NID在图像修复和遮挡去除中的各种应用,这被认为是香草INR的挑战。我们的代码位于https://github.com/VITA-Group/Neural-Implicit-Dict。
引用本文
相关材料