主页

论文

提交文件

新闻

编辑委员会

开源软件

程序(PMLR)

交易(TMLR)

搜索

统计

登录

常见问题

联系我们



RSS源

将未标记数据纳入分布式稳健学习

Charlie Frogner、Sebastian Claici、Edward Chien、Justin Solomon; 22(56):1−46, 2021.

摘要

我们研究了一种称为分布式稳健学习(DRL)的稳健替代方案,该方案学习如何对抗可以从指定分布集中选择数据分布的对手。我们说明了当前DRL公式的一个问题,该公式依赖于对手允许分布的过于宽泛的定义,导致学习分类器无法自信地预测。我们提出了一种解决方案,将未标记数据纳入DRL问题,以进一步限制对手。我们表明,这种新的公式适用于基于随机梯度的优化,并对学习分类器的未来性能提供了可计算的保证,类似于(但比)传统DRL的保证更严格。我们在14个实际数据集上检查了这个新公式的性能,发现在传统DRL都不产生分类器的情况下,它通常会产生有效的分类器,并且性能保证非常重要。受这些结果的启发,我们将DRL公式扩展到主动学习,使用标准模型转换启发式的新的分布式版本。我们的主动学习算法通常在实际数据集上获得优于原始启发式算法的学习性能。

[腹肌][pdf格式][围兜]      
©版权所有JMLR公司2021(编辑,贝塔)