×

非参数评分学习算法的实证比较:树库算法和其他方法。 (英语) Zbl 1284.68495号

摘要:树库该算法最近在[圣克莱门松N.瓦亚蒂斯,“基于树的排名方法”,IEEE Trans。Inf.Theory 55,No.9,4316–4336(2009;doi:10.1109/TIT.2009.2025558); 作者马赫。学习。83,第1期,31–69页(2011年;Zbl 1237.68141号)]作为一种基于输入空间递归划分的评分方法。该树归纳算法通过一个称为LeafRank公司本文的目的之一是深入分析树库/叶秩方法。提供了基于人工数据集和实际数据集的数值实验。本着袋装和随机森林的精神,进一步开展了使用重采样和随机的实验[作者,“袋装排名树”,载于:2009年机器学习和应用国际会议论文集。ICMLA’09年。伦敦:电气工程师学会(2009;doi:10.1109/ICMLA.2009.14); 《森林排名》,J.Machine Learn。Res.14,No.1,39-73(2013)],我们展示了它们如何提高二分排名的稳定性和准确性。此外,与其他有效的评分算法(如RankBoost排名排名支持向量机在UCI基准数据集上显示。

MSC公司:

68T05型 人工智能中的学习和自适应系统
68兰特 计算机科学中的图论(包括图形绘制)
68瓦05 非数值算法
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] Clémençon S,Vayatis N(2009)基于树的排名方法。IEEE Trans-Inf理论9:4316-4336·Zbl 1367.62047号 ·doi:10.1109/TIT.2009.2025558
[2] Clémençon S,Depecker M,Vayatis N(2011)二部排名的自适应划分方案。J马赫学习43(1):3169·Zbl 1237.68141号
[3] Clémençon S、Depecker M、Vayatis N(2009)《打包排名树》。摘自:ICMLA会议记录,机器学习和应用国际会议·Zbl 1307.68065号
[4] Clémençon S,Vayatis N(2010)《森林排名》(待出版)·Zbl 1098.68652号
[5] Freund Y,Iyer R,Schapire RE,Singer Y(2003)组合偏好的有效提升算法。J Mach学习研究4:933-969·Zbl 1098.68652号
[6] Hastie T,Tibshirani R(1990)广义可加模型。查普曼和霍尔,博卡拉顿·Zbl 0747.62061号
[7] Zhu J,Hastie T(2005)核逻辑回归与输入向量机。J计算图表统计14(1):185-205·doi:10.1198/106186005X25619
[8] Friedman J,Hastie T,Tibshirani R(2000)加性逻辑回归:助推的统计观点。Ann统计28(2):337-407·Zbl 1106.62323号 ·doi:10.1214/aos/1016218223
[9] Joachims T(2002)使用点击数据优化搜索引擎。摘自:第八届ACM SIGKDD知识发现和数据挖掘国际会议记录,第133-142页·Zbl 1222.68141号
[10] Pahikkala T、Tsivtsivadze E、Airola A、Boberg J、Salakoski T(2007)《学习使用两两正则最小二乘法排名》。摘自:SIGIR 2007信息检索排名学习研讨会论文集,第27-33页·Zbl 1136.62355号
[11] Burges C、Shaked T、Renshaw E、Lazier A、Deeds M、Hamilton N、Hullender G(2005)《学习使用梯度下降法排名》。摘自:ICML会议记录,第22届机器学习国际会议,第89-96页·Zbl 1106.62323号
[12] Dodd L,Pepe M(2003)部分AUC估计和回归。生物统计学59(3):614-623·Zbl 1210.62152号 ·数字对象标识代码:10.1111/1541-0420.0071
[13] Clémençon S,Vayatis N(2007)排名最佳实例。J Mach学习研究8:2671-2699·Zbl 1222.68171号
[14] Clémençon S,Vayatis N(2008)线性秩统计的经验性能最大化。摘自:NIPS’08会议记录,神经信息处理系统会议,第305-312页·Zbl 1222.68137号
[15] Rudin C(2009)P范数推送:一种简单的凸排序算法,集中在列表的顶部。J Mach学习研究10:2233-2271·Zbl 1235.68185号
[16] Robertson S,Zaragoza H(2007)《基于等级的有效性度量和优化》。Inf Ret 10(3):321-339·doi:10.1007/s10791-007-9025-9
[17] Bartlett P、Jordan M、McAuliffe J(2006)凸性分类和风险边界。美国统计协会期刊101(473):138-156·Zbl 1118.62330号 ·doi:10.1198/01621450000000907
[18] Bartlett P,Tewari A(2007)稀疏性与估计条件概率:一些渐近结果。J Mach学习研究8:775-790·Zbl 1222.68141号
[19] Mease D,Wyner A(2008)与统计观点相反的证据。J Mach学习研究9:131-156
[20] Devroye L,Györfi L,Lugosi G(1996)模式识别的概率理论。柏林施普林格·兹比尔0853.68150
[21] Clémençon S,Vayatis N(2010)重叠分类器:优化评分的实用方法。Constr约32(3):619-648·Zbl 1200.62063号 ·doi:10.1007/s00365-010-9084-9
[22] Boucheron S,Bousquet O,Lugosi G(2005)分类理论:最新进展综述。ESAIM Probab统计9:323-375·Zbl 1136.62355号 ·doi:10.1051/ps:2005018
[23] anley J,McNeil J(1982)ROC曲线下面积的含义和使用。放射学143:29-36
[24] Clémençon S,Lugosi G,Vayatis N(2008)U统计的排名和经验风险最小化。安统计36:844-874·兹比尔1181.68160 ·doi:10.1214/00905260700000910
[25] Ailon N,Mohri M(2010),基于偏好的学习排名。马赫学习J 80(2):189-211·Zbl 1470.68069号
[26] Breiman L,Friedman J,Olshen R,Stone C(1984)分类,回归树。蒙特里州沃兹沃斯和布鲁克斯·Zbl 0541.62042号
[27] Bach FR、Heckerman D、Eric H(2006)《考虑分类器学习中的成本不对称》。J Mach学习研究7:1713-1741·Zbl 1222.68137号
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。