计算机工程与应用››2023,第59卷››发行(12): 166-175.内政部:10.3778/j.issn.1002-8331.2210-0331

图形图像处理 • 上一篇   下一篇

LST变压器:Swin变压器的轻量化语义分割网络

杨承,高建瓴,郑美琳,丁容  

  1. 贵州大学 大数据与信息工程学院,贵阳 550025
  • 出版日期:2023-06-15 发布日期:2023-06-15

LSTFormer:基于Swin Transformer的轻量级语义分割网络

杨成、高建林、郑美林、丁荣  

  1. 贵州大学大数据与信息工程学院,贵阳550025
  • 在线:2023-06-15 出版:2023-06-15

摘要:针对现有基于变压器的语义分割网络普遍存在计算复杂度高的问题,提出了一种基于Swin变压器的轻量化语义分割网络。该网络通过Swin变压器获取多个尺度的特征图;采用全感知模块和改进的级联融合模块跨层融合不同尺度的特征图,减小不同层级特征图的语义差距;引入单个Swin变压器块对初分割特征映射进行优化,通过移动窗口自注意力机制提升网络对不同像素点进行分类的能力;训练阶段加入骰子损失函数和交叉熵损失函数,提高网络的分割性能和收敛速度。实验结果表明,LSTFormer、ADE20K和Cityscapes mIoU分别为49.47%和81.47%、SETR和Swin-UPerNet、LSTForrer在保持相当分割精度的同时具有更低的参数量和计算量。

关键词: 轻量化语义分割, Swin变压器, 跨层融合, 自注意力机制, 损失函数

摘要:针对现有基于Transformer的语义分割网络计算复杂度高的普遍问题,提出了一种基于Swin-Transformer的轻量级语义分割网络。首先,利用Swin Transformer获得多尺度的特征图。其次,利用全感知模块和改进的级联融合模块跨层融合不同尺度的特征图,缩小了不同层次特征图之间的语义鸿沟。然后,引入单个Swin Transformer块来优化初始分割特征映射,并通过移动窗口自动注意机制提高网络对不同像素的分类能力。最后,在训练阶段加入骰子损失函数和交叉熵损失函数,以提高网络的分割性能和收敛速度。实验结果表明,ADE20K和Cityscapes上LSTFormer的mIoU分别达到49.47%和81.47%。与SETR和Swin-UPerNet等类似网络相比,LSTFormer具有更低的参数和计算量,同时保持相同的分割精度。

关键词: 轻量级语义分割, Swin变压器, 跨层融合, 自我注意机制, 损耗熔合