圣埃芬·克莱门松;海军德贝克;尼古拉斯·瓦亚蒂斯 非参数评分学习算法的实证比较:树库算法和其他方法。 (英语) Zbl 1284.68495号 PAA,模式分析。申请。 16,第4期,475-496(2013). 摘要:树库该算法最近在[圣克莱门松和N.瓦亚蒂斯,“基于树的排名方法”,IEEE Trans。Inf.Theory 55,No.9,4316–4336(2009;doi:10.1109/TIT.2009.2025558); 作者马赫。学习。83,第1期,31–69页(2011年;Zbl 1237.68141号)]作为一种基于输入空间递归划分的评分方法。该树归纳算法通过一个称为LeafRank公司本文的目的之一是深入分析树库/叶秩方法。提供了基于人工数据集和实际数据集的数值实验。本着袋装和随机森林的精神,进一步开展了使用重采样和随机的实验[作者,“袋装排名树”,载于:2009年机器学习和应用国际会议论文集。ICMLA’09年。伦敦:电气工程师学会(2009;doi:10.1109/ICMLA.2009.14); 《森林排名》,J.Machine Learn。Res.14,No.1,39-73(2013)],我们展示了它们如何提高二分排名的稳定性和准确性。此外,与其他有效的评分算法(如RankBoost排名和排名支持向量机在UCI基准数据集上显示。 引用于5文件 MSC公司: 68T05型 人工智能中的学习和自适应系统 68兰特 计算机科学中的图论(包括图形绘制) 68瓦05 非数值算法 关键词:评分规则;排序树;ROC曲线;AUC最大化;重新取样;特征随机化 引文:Zbl 1237.68141号 PDF格式BibTeX公司 XML格式引用 \textit{S.Clémençon}等人,PAA,模式分析。申请。16,第4号,475--496(2013;Zbl 1284.68495) 全文: 内政部 参考文献: [1] Clémençon S,Vayatis N(2009)基于树的排名方法。IEEE Trans-Inf理论9:4316-4336·Zbl 1367.62047号 ·doi:10.1109/TIT.2009.2025558 [2] Clémençon S,Depecker M,Vayatis N(2011)二部排名的自适应划分方案。J马赫学习43(1):3169·Zbl 1237.68141号 [3] Clémençon S、Depecker M、Vayatis N(2009)《打包排名树》。摘自:ICMLA会议记录,机器学习和应用国际会议·Zbl 1307.68065号 [4] Clémençon S,Vayatis N(2010)《森林排名》(待出版)·Zbl 1098.68652号 [5] Freund Y,Iyer R,Schapire RE,Singer Y(2003)组合偏好的有效提升算法。J Mach学习研究4:933-969·Zbl 1098.68652号 [6] Hastie T,Tibshirani R(1990)广义可加模型。查普曼和霍尔,博卡拉顿·Zbl 0747.62061号 [7] Zhu J,Hastie T(2005)核逻辑回归与输入向量机。J计算图表统计14(1):185-205·doi:10.1198/106186005X25619 [8] Friedman J,Hastie T,Tibshirani R(2000)加性逻辑回归:助推的统计观点。Ann统计28(2):337-407·Zbl 1106.62323号 ·doi:10.1214/aos/1016218223 [9] Joachims T(2002)使用点击数据优化搜索引擎。摘自:第八届ACM SIGKDD知识发现和数据挖掘国际会议记录,第133-142页·Zbl 1222.68141号 [10] Pahikkala T、Tsivtsivadze E、Airola A、Boberg J、Salakoski T(2007)《学习使用两两正则最小二乘法排名》。摘自:SIGIR 2007信息检索排名学习研讨会论文集,第27-33页·Zbl 1136.62355号 [11] Burges C、Shaked T、Renshaw E、Lazier A、Deeds M、Hamilton N、Hullender G(2005)《学习使用梯度下降法排名》。摘自:ICML会议记录,第22届机器学习国际会议,第89-96页·Zbl 1106.62323号 [12] Dodd L,Pepe M(2003)部分AUC估计和回归。生物统计学59(3):614-623·Zbl 1210.62152号 ·数字对象标识代码:10.1111/1541-0420.0071 [13] Clémençon S,Vayatis N(2007)排名最佳实例。J Mach学习研究8:2671-2699·Zbl 1222.68171号 [14] Clémençon S,Vayatis N(2008)线性秩统计的经验性能最大化。摘自:NIPS’08会议记录,神经信息处理系统会议,第305-312页·Zbl 1222.68137号 [15] Rudin C(2009)P范数推送:一种简单的凸排序算法,集中在列表的顶部。J Mach学习研究10:2233-2271·Zbl 1235.68185号 [16] Robertson S,Zaragoza H(2007)《基于等级的有效性度量和优化》。Inf Ret 10(3):321-339·doi:10.1007/s10791-007-9025-9 [17] Bartlett P、Jordan M、McAuliffe J(2006)凸性分类和风险边界。美国统计协会期刊101(473):138-156·Zbl 1118.62330号 ·doi:10.1198/01621450000000907 [18] Bartlett P,Tewari A(2007)稀疏性与估计条件概率:一些渐近结果。J Mach学习研究8:775-790·Zbl 1222.68141号 [19] Mease D,Wyner A(2008)与统计观点相反的证据。J Mach学习研究9:131-156 [20] Devroye L,Györfi L,Lugosi G(1996)模式识别的概率理论。柏林施普林格·兹比尔0853.68150 [21] Clémençon S,Vayatis N(2010)重叠分类器:优化评分的实用方法。Constr约32(3):619-648·Zbl 1200.62063号 ·doi:10.1007/s00365-010-9084-9 [22] Boucheron S,Bousquet O,Lugosi G(2005)分类理论:最新进展综述。ESAIM Probab统计9:323-375·Zbl 1136.62355号 ·doi:10.1051/ps:2005018 [23] anley J,McNeil J(1982)ROC曲线下面积的含义和使用。放射学143:29-36 [24] Clémençon S,Lugosi G,Vayatis N(2008)U统计的排名和经验风险最小化。安统计36:844-874·兹比尔1181.68160 ·doi:10.1214/00905260700000910 [25] Ailon N,Mohri M(2010),基于偏好的学习排名。马赫学习J 80(2):189-211·Zbl 1470.68069号 [26] Breiman L,Friedman J,Olshen R,Stone C(1984)分类,回归树。蒙特里州沃兹沃斯和布鲁克斯·Zbl 0541.62042号 [27] Bach FR、Heckerman D、Eric H(2006)《考虑分类器学习中的成本不对称》。J Mach学习研究7:1713-1741·Zbl 1222.68137号 此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。