计算机科学>机器学习
标题: 从标签比例中轻松学习
摘要: 我们考虑从标签比例(LLP)中学习的问题,LLP是一种弱监督的分类设置,其中实例被分组为“包”,并且只有每个包中类标签的频率可用。 尽管如此,学习者的目标是在个体层面上实现低任务损失。 在这里,我们提出了Easylp:一种基于聚合标签的灵活且易于实现的去噪方法,它可以操作任意的损失函数。 我们的技术允许我们在单个级别准确估计任意模型的预期损失。 我们通过将其应用于流行的学习框架,如经验风险最小化(ERM)和随机梯度下降(SGD),展示了我们方法的灵活性,并对实例级性能提供了可证明的保证。 更具体地说,与全面监督相比,我们展示了一种方差减少技术,该技术使得ERM和SGD设置中的LLP学习质量仅下降了一个因子k(k是包大小)。 最后,我们在多个数据集上验证了我们的理论结果,证明了我们的算法尽管简单,但性能与以前的LLP方法一样好或更好。