中央控制网

CCNet:语义分割的交叉关注。上下文信息在视觉理解问题中起着至关重要的作用,如语义分割和目标检测。我们提出了一个Criss-Cross-Network(CCNet)来有效地获取完整的图像上下文信息。具体地说,对于每一个像素,一个新颖的交叉注意模块获取其交叉路径上所有像素的上下文信息。通过进一步的循环操作,每个像素最终可以捕获完整的图像依赖关系。此外,还提出了一种类别一致性损失来加强criss交叉注意模块以产生更具区分性的特征。总体而言,CCNet具有以下优点:1)GPU内存友好。与非本地块相比,所提出的递归criss交叉注意模块所需的GPU内存使用量减少了11倍。2) 计算效率高。反复的交叉注意力显著减少了约85%的非局部阻滞。3) 最先进的表演。我们对语义分割基准进行了大量的实验,包括Cityscapes、ADE20K、人类解析基准LIP、实例分割基准COCO、视频分割基准CamVid。特别是,我们的CCNet在城市景观测试集、ADE20K验证集和LIP验证集上的mIoU分数分别达到81.9%、45.76%和55.47%,这是最新的最新成果。源代码可在https://github.com/speedingzl/CCNet