KNN密度估计分析

@文章{Zhao2020AnalysisOK,title={KNN密度估计分析},author={赵普宁和赖立峰},journal={IEEE信息理论汇刊},年份={2020年},体积={68},页码={7971-7995},网址={https://api.semanticscholar.org/CorpusID:222090989}}
分析了最近邻密度估计方法的收敛速度,发现原kNN密度估计的误差不一致,提出了一种新的自适应kNN估计方法,该方法可以为不同的样本选择不同的样本。

本文图表

具有最近邻的Minimax最优Q学习

本文提出了两种新的最近邻$Q$学习方法,一种用于离线设置,另一种用于在线设置,这两种方法大大改进了现有的结果,并且在$\epsilon$上具有最小最大的最佳依赖性。

全局思考,局部适应:学习局部自适应K-最近邻核密度估计

可以观察到,贝叶斯KNN-KDE在合成数据集和实际数据集上提供的有效密度估计优于传统的KDE和KNN密度估计,甚至在两个考虑的实际数据集中优于最近的神经密度估计程序。

主动覆盖

这项工作分析了主动覆盖的问题,即给学习者一个未标记的数据集,并可以按顺序标记查询示例,并提供了一种简单的主动学习方法,可以获得$\widetilde{O}(n^{(D-1)/D})$的改进的超额查询成本。

用于分布外检测的标签平滑嵌入假设

结果表明,相对于分类模型在分布样本上的中间激活,所提出的使用$k-NN密度估计检测OOD样本的无监督方法优于许多OOD基线,并且为该方法检测OOD的能力提供了新的有限样本高概率统计结果示例。

使用用户级本地差异隐私进行学习

与中央DP模型(用户级DP总是导致较慢的收敛)不同,结果表明,在本地模型下,对于支持有限的分布,用户级和项目级的收敛速度几乎相同。

非分布检测的无模型测试时间自适应

提出了一种用于OOD检测的非参数测试时间框架,该框架将检测到的OOD实例纳入决策,从而降低误报率,特别是当ID和OOD分布显著重叠时。

基于局部水平集概率的模式聚类的Bagged k距离

本文通过提出一种称为局部水平集概率的新度量方法,提出了一种基于模式聚类的集成学习算法bagged k距离(BDMBC)

基于深度最近邻的分布外检测

本文在几个基准上证明了基于最近邻的OOD检测的有效性,并在ImageNet-1k上训练的相同模型下建立了优越的性能,这大大降低了误报率。

中毒攻击下的稳健非参数回归

结果表明,在适当的带宽选择下,如果有多个攻击样本集中在一个较小的区域内,则上确界误差是最小最大的,初始M估计容易受到攻击,并通过将初始估计投影到Lipschitz函数空间,提出了一种修正方法。

长程依赖下传递熵的估计

提出了一种基于局部敏感散列(LSH)函数的扰动模型,该模型将判别模型重新极化,使其在输入空间的局部邻域内具有平滑的函数输出,该模型是一致的,其方差在样本大小上线性减小。

最小最大速率最优自适应最近邻分类与回归

对所提出的自适应kNN方法的收敛速度进行了表征,并证明其符合极小极大下界。

关于KNN密度估计的收敛速度

本文分析了最近邻密度估计方法的收敛速度,并证明了当支持集已知或未知时,在$\ell_{1}$和$\ell_ infty$准则下,kNN密度估计都是极小极大最优的。

自适应内禀体积维数核密度估计的一致收敛速度

提出了体积维,称为体积维,用于测量基于欧几里德球消失概率衰减率的概率分布支持的内在维,对于几何推理和拓扑数据分析中的问题很有用。

基于小波阈值的密度估计

密度估计是非参数估计方法的常用测试用例。我们研究了基于经验小波系数阈值的估计量的渐近性质。

核密度估计的一致收敛速度

导出了多元KDE在温和密度假设下的高概率密度估计界,该密度估计界在x∈R d和带宽矩阵中一致成立,并应用于模式、模式、密度水平集和类概率估计,获得了对数因子以下的最优速率。

核密度估计的$L_1$收敛性

supB e | e1n(B)v(B)l-*,nO在概率(或w.p.1)中,其中XI,**Xn是独立的,与任意概率测度p在`上相同分布,Pn是X1,**Xn的经验测度