的一部分神经信息处理系统进展31(NeurIPS 2018)
哈桑·阿什蒂亚尼(Hassan Ashtiani)、谢本·达维德(Shai Ben-David)、尼古拉斯·哈维(Nicholas Harvey)、克里斯托弗·利奥(Christopher Liaw)、阿巴斯·梅赫拉比安(Abbas Mehrabian)、
我们证明了ϴ(kd^2/ε^2)样本对于学习R^d中的k高斯混合,直到总变差距离中的误差ε都是必要的和充分的。这改进了该问题的已知上界和下界。对于轴对齐Gaussian的混合物,我们证明O(k d/ε^2)样本足够,匹配一个已知的下限。
上限基于基于样本压缩概念的分布学习新技术。任何一类允许这样的样本压缩方案的分布也可以用很少的样本来学习。此外,如果一类分布具有这样的压缩方案,那么这些分布的乘积类和混合类也是如此。我们主要结果的核心是表明R^d中的高斯类具有有效的样本压缩。
在电子程序中更改姓名的请求将被接受,不会提出任何问题。然而,名称更改可能会导致书目跟踪问题。作者被要求仔细考虑这一点,并在要求在电子诉讼中更改姓名之前与合著者进行讨论。
使用“报告问题”链接请求更改名称。