×

使用证据EM算法的软标签参数分类:线性判别分析与逻辑回归。 (英语) Zbl 1414.62265号

总结:部分监督学习通过考虑只有关于响应变量的部分信息可用的情况,扩展了监督学习和非监督学习。在本文中,我们考虑部分监督分类,并假设学习实例由Dempster-Shafer质量函数标记,称为软标记。线性判别分析和逻辑回归被认为是生成和判别参数模型的特例。我们表明,证据EM算法可以进行特殊化,以适应每个模型中的参数。我们使用模拟数据集以及两个实际应用描述了实验结果:睡眠脑电图信号中的K复数检测和面部表情识别。当真正的类成员部分未知或定义不明确时,这些结果证实了与潜在错误的清晰标签相比,使用软标签进行分类的兴趣。

MSC公司:

62H30型 分类和区分;聚类分析(统计方面)
62层86 参数推理与模糊
68吨10 模式识别、语音识别
68层37 人工智能背景下的不确定性推理
PDF格式BibTeX公司 XML格式引用
全文: 内政部 哈尔

参考文献:

[1] Abassi L,Boukhris I(2016)《信念函数框架下的群体标签聚合》。摘自:Lehner F,Fteimi N(eds)《第九届知识科学、工程和管理国际会议论文集》,KSEM 2016,德国帕索,2016年10月5-7日。查姆施普林格,第185-196页
[2] Bishop CM(2006)模式识别和机器学习。柏林施普林格·Zbl 1107.68072号
[3] Chapelle O,Schölkopf B,Zien A(2006)半监督学习。麻省理工学院出版社,剑桥·doi:10.7551/mitpress/9780262033589.001.0001
[4] Cherfi ZL、Oukhellou L、Cóme E、Denœux T、Aknin P(2012),使用来自多个专家的软标签进行部分监督独立因子分析:在铁路轨道电路诊断中的应用。软计算16(5):741-754·doi:10.1007/s00500-011-0766-4
[5] Cóme E,Oukhellou L,Denœux T,Aknin P(2009)使用混合模型和信念函数从部分监督数据中学习。图案识别42(3):334-348·Zbl 1181.68231号 ·doi:10.1016/j.patcog.2008.07.014
[6] Cour T、Sapp B、Taskar B(2011)从部分标签中学习。J Mach学习研究12:1225-1261·Zbl 1280.68162号
[7] 库索,I。;Dubois,D。;Ferraro,MB(编辑);Giordani,P.(编辑);Vantaggi,B.(编辑);Gagolewski,M.(编辑);Gil,M.ángeles(编辑);Grzegorzewski,P.(编辑);Hryniewicz,O.(编辑),《不完全信息下的最大可能性:标准比较》,141-148(2017),Cham·doi:10.1007/978-3-319-42972-418
[8] Dempster AP(1967)多值映射引起的上下概率。数学统计年鉴38:325-339·Zbl 0168.17501号 ·doi:10.1214/网址/1177798950
[9] Dempster AP,Laird NM,Rubin DB(1977)通过EM算法从不完整数据中获得最大似然。J R统计社会学B 39:1-38·Zbl 0364.62022号
[10] Denœux T(1995)基于Dempster-Shafer理论的A\[k\]k-最近邻分类规则。IEEE Trans-Syst Man Cybern 25(05):804-813·数字对象标识代码:10.1109/21.376493
[11] Denœux T(2013)信度函数框架中不确定数据的最大似然估计。IEEE Trans-Knowl data Eng 25(1):119-130·doi:10.1109/TKDE.2011.201
[12] Denœux T(2014)基于似然的信念函数:对低质量数据的证明和一些扩展。国际J近似原因55(7):1535-1547·Zbl 1407.62097号 ·doi:10.1016/j.ijar.2013.06.007文件
[13] Denoeux T,Kanjanatarakul O(2016)《超越模糊、可能性和粗糙:聚类中信念函数的研究》。摘自:2016年第八届概率统计软方法国际会议论文集SMPS,数据科学软方法,智能和软计算进展,AISC,第456卷。意大利罗马施普林格,第157-164页
[14] Denœux T,Masson MH(2004)EVCLUS:邻近数据的证据聚类。IEEE Trans-Syst Man Cybern B 34(1):95-109·doi:10.1109/TSMCB.2002.806496
[15] Denœux T,Skarstein-Bjanger M(2000)部分分类数据的决策树归纳。摘自:2000年SMC会议记录。田纳西州纳什维尔IEEE,第2923-2928页
[16] Denœux T,Zouhal LM(2001)使用证据推理处理模式分类中的可能性标签。模糊集系统122(3):47-62·Zbl 1063.68635号
[17] Denœux T,Sriboonchitta S,Kanjanatarakul O(2016)大差异数据的证据聚类。基于知识的系统106:179-195·Zbl 1352.68247号 ·doi:10.1016/j.knosys.2016.05.043
[18] Dubuisson S,Davoine F,Masson MH(2002)面部表情表示和识别解决方案。信号处理图像通信17(9):657-673·doi:10.1016/S0923-5965(02)00076-0
[19] Elouedi Z,Mellouli K,Smets P(2001)《信念决策树:理论基础》。国际J近似原因28:91-124·Zbl 0991.68088号 ·doi:10.1016/S0888-613X(01)00045-7
[20] Hasan A,Wang Z,Mahani A(2016)多项式logit模型的快速估计:R包mnlogit。J Stat Softw杂志75(1):1-24
[21] Heitjan DF,Rubin DB(1991),可忽略性和粗数据。附录统计19(4):2244-2253·Zbl 0745.62004号 ·doi:10.1214/aos/1176348396
[22] Hüllermier E(2014)从不精确和模糊观测中学习:通过广义损失最小化消除数据歧义。国际J近似原因55(7):1519-1534·Zbl 1407.68396号 ·doi:10.1016/j.ijar.2013.09.003
[23] Hüllermier E,Beringer J(2005)从模糊标注的示例中学习。In:第六届智能数据分析国际研讨会(IDA-05)会议记录,西班牙马德里·Zbl 1141.68567号
[24] Jaffray JY(1989)信念函数的线性效用理论。运营Res Lett 8(2):107-112·Zbl 0673.90010号 ·doi:10.1016/0167-6377(89)90010-2
[25] Kanade T,Cohn J,Tian Y(2000)面部表情分析综合数据库。在:第四届人脸和手势识别国际会议论文集,法国格勒诺布尔,第46-53页
[26] 李杰(2013)Logistic回归。课程笔记。http://sites.stat.psu.edu/佳丽/课程/stat597e/notes2/logit.pdf
[27] Liu ZG,Pan Q,Dezert J,Mercier G(2015)基于置信函数的Credal c-means聚类方法。基于知识的系统74:119-132·doi:10.1016/j.knosys.2014.11.013
[28] Liu ZG,Pan Q,Dezert J,Mercier G(2017)不确定数据的混合分类系统。IEEE Trans Syst Man Cybern Syst(出版中)。https://doi.org/10.109/TSMC.2016.2622247
[29] Ma L,Destercke S,Wang Y(2016)基于证据数据的决策树在线主动学习。Patt Recognit图案识别52:33-45·Zbl 1394.68302号 ·doi:10.1016/j.patcog.2015.014
[30] Mardia KV(1970)多元偏度和峰度的测量及其应用。生物特征57(3):519-530·Zbl 0214.46302号 ·doi:10.1093/biomet/57.3.519
[31] McLachlan GJ,Krishnan T(1997)EM算法和扩展。纽约威利·Zbl 0882.62012号
[32] McLachlan GJ,Peel D(2000)有限混合模型。纽约威利·Zbl 0963.62061号 ·doi:10.1002/0471721182
[33] Nguyen N,Caruana R(2008)部分标签分类。摘自:第14届ACM SIGKDD知识发现和数据挖掘国际会议论文集,KDD’08。美国纽约州纽约市ACM,第551-559页
[34] Peters G、Crespo F、Lingras P、Weber R(2013)《软聚类:模糊和粗糙方法及其扩展和衍生》。国际J近似原因54(2):307-322·doi:10.1016/j.ijar.2012.10.03
[35] Press SJ,Wilson S(1978),在逻辑回归和判别分析之间进行选择。美国统计协会杂志73(364):699-705·Zbl 0399.62060号 ·doi:10.1080/01621459.1978.10480080
[36] Quost B(2014)通过证据EM算法对软标记实例进行Logistic回归。摘自:Cuzzolin F(ed)《信念函数:理论与应用第三届国际会议论文集》,belief 2014。2014年9月26日至28日,英国牛津。查姆施普林格,第77-86页
[37] Quost B,Denoeux T(2016)使用模糊EM算法对模糊数据进行聚类和分类。模糊集系统286:134-156·Zbl 06840610号 ·doi:10.1016/j.fss.2015.04.012
[38] Ramasso E,Denœux T(2013)利用HMM中隐藏状态的部分知识:基于信念函数的方法。IEEE Trans Fuzzy系统21(6):1-11·doi:10.1109/TFUZZ.2013.2291136
[39] Richard C(1998)《保护结构重要性的方法》。应用程序au-plan-temps-fréquence。Compiègne技术大学博士论文
[40] Richard C,LengelléR(1999),数据驱动设计和时频检测器的复杂性控制。Sig过程77:37-48·Zbl 1026.94514号 ·doi:10.1016/S0165-1684(99)00021-3
[41] Rjab AB、Kharoune M、Miklos Z、Martin A(2016)众包平台专家的特征描述。载于:VejnarováJ,Kratochvíl V(eds)《第四届信仰功能:理论与应用国际会议论文集》,belief 2016,捷克共和国布拉格,2016年9月21日至23日。施普林格,查姆,第97-104页
[42] Shafer G(1976)证据的数学理论。普林斯顿大学出版社·Zbl 0359.62002号
[43] Strat TM(1990)使用信念函数的决策分析。国际J近似原因4(5-6):391-417·Zbl 0706.68089号 ·doi:10.1016/0888-613X(90)90014-S
[44] Sutton-Charani N,Destercke S,Denoeux T(2013)使用证据EM方法从不确定数据中学习决策树。In:第12届机器学习和应用国际会议,2013年,第1卷,第111-116页
[45] Sutton-Charani N,Destercke S,Denœux T(2014)《从证据数据训练和评估分类器:应用于E2M决策树修剪》。摘自:Cuzzolin F(ed)《信念函数:理论与应用第三届国际会议论文集》,belief 2014。英国牛津,2014年9月26-28日。查姆施普林格,第87-94页
[46] Trabelsi S,Elouedi Z,Mellouli K(2007)平均法和合取法中的剪枝信念决策树方法。国际J近似原因46(3):568-595·Zbl 1185.68718号 ·doi:10.1016/j.ijar.2007.02.004
[47] Zadeh LA(1978)模糊集作为可能性理论的基础。模糊集系统1:3-28·Zbl 0377.04002号 ·doi:10.1016/0165-0114(78)90029-5
[48] Zhou K,Martin A,Pan Q(2014)证据-EM算法应用于逐步删失观测。在:Laurent A,Strauss O,Bouchon Meunier B,Yager RR(编辑)第15届知识型系统信息处理和不确定性管理国际会议论文集,IPMU 2014,法国蒙彼利埃,第三部分,2014年7月15日至19日。查姆施普林格,第180-189页·Zbl 1415.68246号
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。