×

基于优势的粗糙集方法的经验风险最小化。 (英语) Zbl 1523.68097号

摘要:在本文中,我们考虑了文献中提出的两种基于参数优势的粗糙集方法(DRSA):可变精度DRSA(VP-DRSA)和可变一致性DRSA(VC-DRA)。引入它们是为了处理在实践中遇到的分类数据,对于这些数据,低近似值的原始定义过于严格。这两种扩展都允许以不同的方式控制较低近似值。我们从机器学习典型的经验风险最小化的角度对VP-DRSA和VC-DRSA进行了统计解释。在给定分类器族和损失函数的情况下,我们考虑了VP-DRSA和VC-DRSA与有序分类直接相关的分类问题。然后,我们将这两种方法的参数增广下近似刻画为相关经验风险最小化问题的最优解。因此,在参数DRSA和统计学习之间建立了联系。此外,增广下近似的新特征允许我们展示VP-DRSA和VC-DRSA之间的差异和相似性。

MSC公司:

68层37 人工智能背景下的不确定性推理
62H30型 分类和区分;聚类分析(统计方面)
68T05年 人工智能中的学习和自适应系统

软件:

PRMLT公司
PDF格式BibTeX公司 XML格式引用
全文: DOI程序

参考文献:

[1] Berger,J.O.,《统计决策理论和贝叶斯分析》(1985),Springer-Verlag:Springer-Verlag New York·Zbl 0572.62008号
[2] Bishop,C.M.,《模式识别和机器学习(信息科学和统计)》(2006),斯普林格·弗拉格:柏林斯普林格尔·弗拉格,海德堡·Zbl 1107.68072号
[3] Błaszczynski,J。;Greco,S。;Słowiáski,R。;Szelńg,M.,《基于可变一致性优势的粗糙集方法》,(Greco,S.;Hata,Y.;Hirano,S.;Inuiguchi,M.;Miyamoto,S.;Nguyen,H.S.;Słowiński,R.,《粗糙集与当前计算趋势》(2006),施普林格-柏林-海德堡:施普林格-柏林-海德堡-海德堡,海德堡),191-202·Zbl 1162.68520号
[4] Błaszczynski,J。;Greco,S。;Słowiáski,R。;Szeląg,M.,单调变量一致性粗糙集方法,内部J.近似原因。,50, 979-999 (2009) ·Zbl 1191.68673号
[5] Błaszczynski,J。;Słowiáski,R。;Szeląg,M.,可变一致性粗糙集方法的序列覆盖规则归纳算法,信息科学。,181, 5, 987-1002 (2011)
[6] 方,Y。;高,C。;Yao,Y.,《粒度驱动的连续三方决策:成本敏感的分类方法》,《信息科学》。,507, 644-664 (2020)
[7] Fitelson,B.,《似是而非、贝叶斯主义和关系确认》,Synthese,156473-489(2007)·Zbl 1125.03302号
[8] 弗恩克兰兹,J。;Gamberger,D。;Lavrač,N.,《规则学习基础》(2012),施普林格出版社,柏林-海德堡·Zbl 1263.68002号
[9] Greco,S。;马塔拉佐,B。;Słowiáski,R.,《多准则决策分析的粗糙集理论》,欧洲期刊Oper。第129、1-47号决议(2001年)·Zbl 1008.91016号
[10] Greco S.、Matarazo B.、Słowiñski R.、Stefanowski J.,基于支配权的粗糙集方法的变量一致性模型,收录于:Ziarko W.、Yao Y.(编辑),《粗糙集与计算中的当前趋势》,LNAI 2005年卷,斯普林格·弗拉格,柏林,海德堡,2001年,第170-181页。https://doi.org/10.1007/3-540-45554-X_20。 ·Zbl 1014.68544号
[11] Greco,S。;Słowiáski,R。;Yao,Y.,基于优势的粗糙集方法的贝叶斯决策理论,(Yao,J.;Lingras,P.;Wu,W.-Z.;Szczuka,M.;Cercone,N.J.;Ślęzak,D.,rough Sets and Knowledge Technology,2007),Springer Berlin Heidelberg:Springer Borlin Heidelberg Berlin Berlin,Heidelburg,134-141
[12] Inuiguchi,M。;Yoshioka,Y。;Kusunoki,Y.,《基于可变决策优势的粗糙集方法和属性约简》,国际期刊近似推理。,50, 1199-1214 (2009) ·Zbl 1191.68681号
[13] Ju,H。;杨,X。;Yu,H。;李·T。;Yu,D.-J。;Yang,J.,成本敏感粗糙集方法,《信息科学》。,355-356, 282-298 (2016) ·Zbl 1427.68315号
[14] 刘,D。;Liang,D.,有序决策系统中的三向决策,Knowl-基于系统。,137, 182-195 (2017)
[15] 刘杰。;李,H。;周,X。;黄,B。;Wang,T.,基于优化的三方决策公式,信息科学。,495, 185-214 (2019)
[16] 莫赫里,M。;Rostamizadeh,A。;Talwalkar,A.,《机器学习基础》,(自适应计算和机器学习(2018),麻省理工学院出版社:麻省理学院剑桥出版社)·Zbl 1407.68007号
[17] Pawlak,Z.,《粗糙集》,《国际信息计算杂志》。科学。,11, 341-356 (1982) ·Zbl 0501.68053号
[18] Pawlak,Z。;Skowron,A.,《粗糙隶属函数》(Yager,R.R.;Kacprzyk,J.;Fedrizzi,M.,《Dempster-Shafer证据理论的进展》(1994),John Wiley&Sons Inc.:John Willey&Sons Inc New York,NY,USA),251-271
[19] Pawlak,Z。;Skowron,A.,《粗糙集的基础》,信息科学。,177, 3-27 (2007) ·Zbl 1142.68549号
[20] Słowiáski,R。;Vanderpooten,D.,基于相似性的粗糙近似的广义定义,IEEE Trans。知识。数据工程,12,2,331-336(2000)
[21] Słowiáski,R。;Yao,Y.,《粗糙集》(Kacprzyk,J.;Pedrycz,W.,《计算智能手册》(2015)第C部分,施普林格),329-451
[22] 苏,M。;Tao,L。;朱,B。;苗,X。;Liang,Z。;丁,Y。;张,X。;张涛,单参数决策理论粗糙集,信息科学。,539, 49-80 (2020) ·Zbl 1474.68365号
[23] Vapnik,V.N.,《统计学习理论》(1998年),《Wiley-Interscience出版物:Wiley-Interscience出版》,纽约·Zbl 0935.62007号
[24] Yao,Y.,概率粗糙集近似,Int.J.近似原因。,49, 255-271 (2008) ·Zbl 1191.68702号
[25] 姚,Y。;周,B.,《粗糙集的两种贝叶斯方法》,欧洲期刊Oper。决议,251,3,904-917(2016)·Zbl 1346.68212号
[26] 张,Q。;夏,D。;Wang,G.,具有两类分类错误的三元决策模型,Inf.Sci。,420, 431-453 (2017) ·Zbl 1436.68367号
[27] Ziarko,W.,可变精度粗糙集模型,J.Compute。系统。科学。,46, 1, 39-59 (1993) ·Zbl 0764.68162号
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。