从标签比例轻松学习

的一部分神经信息处理系统进展36(NeurIPS 2023)主要会议轨道

Biptex公司 纸张 补充的

作者

Róbert Busa-Fekete、Heejin Choi、Travis Dick、Claudio Gentile、Andres Munoz Medina

摘要

我们考虑从标签比例中学习(LLP)的问题,这是一种弱监督的分类设置,其中实例被分组到i.i.d.“包”中,并且只有每个包的类标签频率可用。尽管如此,学习者的目标是在个人实例水平上实现低任务损失。在这里,我们提出了EASYLLP,这是一种基于聚合标签的灵活且简单的去噪方法,可以操作任意的损失函数。我们的技术允许我们在单个级别准确估计任意模型的预期损失。我们阐述了我们的方法与基于标签比例匹配的标准方法在适用性和优化条件方面的差异。通过将我们的方法应用于流行的学习框架,如经验风险最小化(ERM)和随机梯度下降(SGD),并在实例级性能上提供可证明的保证,我们展示了与替代方法相比,我们方法的灵活性。最后,我们在多个数据集上验证了我们的理论结果,实证说明了我们的算法在哪些条件下可以比以前的LLP方法表现得更好或更差