• 语料库ID:210839228

FixMatch:以一致性和信心简化半监督学习

@文章{Sohn2020FixMatchSS,title={FixMatch:以一致性和信心简化半监督学习},author={Kihyuk Sohn、David Berthelot、Chun-Liang Li、Zizhao Zhang、Nicholas Carlini、Ekin Dogus Cubuk、Alexey Kurakin、Han Zhang和Colin Raffel},日志={ArXiv},年份={2020年},体积={abs/2001.07685},网址={https://api.semanticscholar.org/CorpusID:210839228}}
本文演示了两种常见SSL方法(一致性正则化和伪标记)的简单组合的威力,并表明FixMatch在各种标准半监督学习基准测试中实现了最先进的性能。

询问这篇论文
AI供电

AlphaMatch:利用Alpha发散提高半监督学习的一致性

这项工作提出了AlphaMatch,这是一种利用数据增强的高效SSL方法,它通过有效地加强数据点和从数据点派生的增强数据之间的标签一致性,并在CIFAR-10上实现了91.3%的测试准确度,每个类只需4个标签数据,大大提高了FixMatch以前最好的88.7%的精确度。

LiDAM:具有局部域自适应和迭代匹配的半监督学习

提出的方法LiDAM是一种基于域自适应和自定步长学习的半监督学习方法,在CIFAR-100数据集上实现了最先进的性能,在使用2500个标签时表现优于FixMatch。

自我匹配:在半监督学习中结合对比自我监督和一致性

结果表明,SelfMatch在标准基准数据集(如CIFAR-10和SVHN)上取得了最先进的结果,并且可以通过对每个类只使用几个标签来缩小监督学习和半监督学习之间的差距。

为伪标记辩护:一种用于半监督学习的不确定感知伪标记选择框架

这项工作提出了一个不确定性感知伪标签选择(UPS)框架,该框架通过大幅减少训练过程中遇到的噪声量来提高伪标签的准确性,并推广了伪标签过程,允许创建负伪标签。

SimPLE:半监督分类的相似伪标签利用

这项工作提出了一个新的无监督目标,该目标关注彼此相似的高置信度未标记数据之间研究较少的关系,并最小化相似性高于某个阈值的高置信度伪标签之间的统计距离。

CoMatch:带对比图正则化的半监督学习

CoMatch是一种新的半监督学习方法,它统一了主流方法并解决了它们的局限性,并在标签骨架CIFAR-10和STL-10上实现了显著的准确性改进。

ReLaB:半监督学习的可靠标签引导

提出了可靠标签引导(ReLaB)算法,这是一种无监督预评估算法,为半监督学习解决方案铺平了道路,使其能够在低监督下工作。

用于半监督图像分类的挤奶奶牛面具

提出了一种新的基于掩码的增强方法CowMask,利用它为半监督一致性正则化提供扰动,在ImageNet上用10%的标记数据获得了最先进的结果。

一种简单的对象检测半监督学习框架

提出了一种简单而有效的视觉对象检测SSL框架STAC,以及一种数据增强策略,该策略从未标记图像中部署高度自信的局部对象伪标签,并通过增强一致性来更新模型。

半监督目标检测的无偏教师

这项工作重新审视了半监督目标检测(SS-OD),并确定了SS-OD中的伪标记偏差问题,并介绍了无偏教师,这是一种简单而有效的方法,可以以互惠的方式联合培训学生和逐步进步的教师。
...

ReMixMatch:具有分布匹配和增强锚定的半监督学习

AutoAugment的一种变体,在训练模型时学习增强策略,与以前的工作相比,它的数据效率显著提高,需要的数据减少5到16倍才能达到相同的精度。

深度半监督学习中的伪标记和确认偏差

这项工作表明,由于所谓的确认偏差,天真的伪标签溢出到不正确的伪标签,并证明混合增强和设置每个小标签的最小标记样本数是有效的正则化技术。

MixMatch:半监督学习的整体方法

这项工作结合了当前主流的半监督学习方法,产生了一种新的算法MixMatch,该算法通过猜测数据增强的未标记示例的低熵标签,并使用MixUp混合标记和未标记数据。

用于一致性训练的无监督数据增强

对如何有效地对未标记的示例进行噪声处理提出了一个新的观点,并认为噪声的质量,特别是由高级数据增强方法产生的噪声,在半监督学习中起着至关重要的作用。

深度半监督学习算法的真实性评价

这项工作为各种广泛使用的SSL技术创建了一个统一的重新实施和评估平台,并发现不使用未标记数据的简单基线的性能经常被低估,SSL方法对标记和未标记数据量的敏感性不同,当未标记的数据集包含类外示例时,性能可能会大幅下降。

探索弱监督预训练的局限性

本文对传输学习进行了独特的研究,使用经过训练的大型卷积网络预测数十亿社交媒体图像上的哈希标签,并在几个图像分类和对象检测任务上进行了改进,报告了迄今为止最高的ImageNet-1k单次裁剪,最高的精确度。

用于半监督学习的时间集成

引入了自集合,结果表明,与最近训练历元的网络输出相比,该集合预测可以更好地预测未知标签,因此可以用作训练目标。

有噪音学生的自我训练提高了ImageNet分类

我们提出了一种简单的自训练方法,在ImageNet上达到88.4%的top-1准确率,比需要3.5B弱标记Instagram图像的最新模型好2.0%。打开

加权平均一致性目标改善了半监督深度学习结果

这项工作报告了半监督SVHN的最新结果,并提出了一种平均模型权重而不是标签预测的方法,该方法提高了测试准确性,并且能够使用比早期方法更少的标签进行训练。

带截断的卷积神经网络的改进正则化

本文表明,在训练过程中随机屏蔽输入平方区域的简单正则化技术,即cutout,可以用来提高卷积神经网络的鲁棒性和整体性能。
...