本杰明·奎斯特;蒂埃里·德诺;李寿梅 使用证据EM算法的软标签参数分类:线性判别分析与逻辑回归。 (英语) Zbl 1414.62265号 高级数据分析。分类。,ADAC公司 11,第4期,659-690(2017). 总结:部分监督学习通过考虑只有关于响应变量的部分信息可用的情况,扩展了监督学习和非监督学习。在本文中,我们考虑部分监督分类,并假设学习实例由Dempster-Shafer质量函数标记,称为软标记。线性判别分析和逻辑回归被认为是生成和判别参数模型的特例。我们表明,证据EM算法可以进行特殊化,以适应每个模型中的参数。我们使用模拟数据集以及两个实际应用描述了实验结果:睡眠脑电图信号中的K复数检测和面部表情识别。当真正的类成员部分未知或定义不明确时,这些结果证实了与潜在错误的清晰标签相比,使用软标签进行分类的兴趣。 引用于7文件 MSC公司: 62H30型 分类和区分;聚类分析(统计方面) 62层86 参数推理与模糊 68吨10 模式识别、语音识别 68层37 人工智能背景下的不确定性推理 关键词:部分监督学习;信念函数;Dempster-Shafer理论;机器学习;不确定数据;判别分析;逻辑回归 软件:科恩-卡纳德;mnlogit公司;PRMLT公司 PDF格式BibTeX公司 XML格式引用 \textit{B.Quost}等人,高级数据分析。分类。,ADAC 11,No.4,659--690(2017;Zbl 1414.62265) 全文: 内政部 哈尔 参考文献: [1] Abassi L,Boukhris I(2016)《信念函数框架下的群体标签聚合》。摘自:Lehner F,Fteimi N(eds)《第九届知识科学、工程和管理国际会议论文集》,KSEM 2016,德国帕索,2016年10月5-7日。查姆施普林格,第185-196页 [2] Bishop CM(2006)模式识别和机器学习。柏林施普林格·Zbl 1107.68072号 [3] Chapelle O,Schölkopf B,Zien A(2006)半监督学习。麻省理工学院出版社,剑桥·doi:10.7551/mitpress/9780262033589.001.0001 [4] Cherfi ZL、Oukhellou L、Cóme E、Denœux T、Aknin P(2012),使用来自多个专家的软标签进行部分监督独立因子分析:在铁路轨道电路诊断中的应用。软计算16(5):741-754·doi:10.1007/s00500-011-0766-4 [5] Cóme E,Oukhellou L,Denœux T,Aknin P(2009)使用混合模型和信念函数从部分监督数据中学习。图案识别42(3):334-348·Zbl 1181.68231号 ·doi:10.1016/j.patcog.2008.07.014 [6] Cour T、Sapp B、Taskar B(2011)从部分标签中学习。J Mach学习研究12:1225-1261·Zbl 1280.68162号 [7] 库索,I。;Dubois,D。;Ferraro,MB(编辑);Giordani,P.(编辑);Vantaggi,B.(编辑);Gagolewski,M.(编辑);Gil,M.ángeles(编辑);Grzegorzewski,P.(编辑);Hryniewicz,O.(编辑),《不完全信息下的最大可能性:标准比较》,141-148(2017),Cham·doi:10.1007/978-3-319-42972-418 [8] Dempster AP(1967)多值映射引起的上下概率。数学统计年鉴38:325-339·Zbl 0168.17501号 ·doi:10.1214/网址/1177798950 [9] Dempster AP,Laird NM,Rubin DB(1977)通过EM算法从不完整数据中获得最大似然。J R统计社会学B 39:1-38·Zbl 0364.62022号 [10] Denœux T(1995)基于Dempster-Shafer理论的A\[k\]k-最近邻分类规则。IEEE Trans-Syst Man Cybern 25(05):804-813·数字对象标识代码:10.1109/21.376493 [11] Denœux T(2013)信度函数框架中不确定数据的最大似然估计。IEEE Trans-Knowl data Eng 25(1):119-130·doi:10.1109/TKDE.2011.201 [12] Denœux T(2014)基于似然的信念函数:对低质量数据的证明和一些扩展。国际J近似原因55(7):1535-1547·Zbl 1407.62097号 ·doi:10.1016/j.ijar.2013.06.007文件 [13] Denoeux T,Kanjanatarakul O(2016)《超越模糊、可能性和粗糙:聚类中信念函数的研究》。摘自:2016年第八届概率统计软方法国际会议论文集SMPS,数据科学软方法,智能和软计算进展,AISC,第456卷。意大利罗马施普林格,第157-164页 [14] Denœux T,Masson MH(2004)EVCLUS:邻近数据的证据聚类。IEEE Trans-Syst Man Cybern B 34(1):95-109·doi:10.1109/TSMCB.2002.806496 [15] Denœux T,Skarstein-Bjanger M(2000)部分分类数据的决策树归纳。摘自:2000年SMC会议记录。田纳西州纳什维尔IEEE,第2923-2928页 [16] Denœux T,Zouhal LM(2001)使用证据推理处理模式分类中的可能性标签。模糊集系统122(3):47-62·Zbl 1063.68635号 [17] Denœux T,Sriboonchitta S,Kanjanatarakul O(2016)大差异数据的证据聚类。基于知识的系统106:179-195·Zbl 1352.68247号 ·doi:10.1016/j.knosys.2016.05.043 [18] Dubuisson S,Davoine F,Masson MH(2002)面部表情表示和识别解决方案。信号处理图像通信17(9):657-673·doi:10.1016/S0923-5965(02)00076-0 [19] Elouedi Z,Mellouli K,Smets P(2001)《信念决策树:理论基础》。国际J近似原因28:91-124·Zbl 0991.68088号 ·doi:10.1016/S0888-613X(01)00045-7 [20] Hasan A,Wang Z,Mahani A(2016)多项式logit模型的快速估计:R包mnlogit。J Stat Softw杂志75(1):1-24 [21] Heitjan DF,Rubin DB(1991),可忽略性和粗数据。附录统计19(4):2244-2253·Zbl 0745.62004号 ·doi:10.1214/aos/1176348396 [22] Hüllermier E(2014)从不精确和模糊观测中学习:通过广义损失最小化消除数据歧义。国际J近似原因55(7):1519-1534·Zbl 1407.68396号 ·doi:10.1016/j.ijar.2013.09.003 [23] Hüllermier E,Beringer J(2005)从模糊标注的示例中学习。In:第六届智能数据分析国际研讨会(IDA-05)会议记录,西班牙马德里·Zbl 1141.68567号 [24] Jaffray JY(1989)信念函数的线性效用理论。运营Res Lett 8(2):107-112·Zbl 0673.90010号 ·doi:10.1016/0167-6377(89)90010-2 [25] Kanade T,Cohn J,Tian Y(2000)面部表情分析综合数据库。在:第四届人脸和手势识别国际会议论文集,法国格勒诺布尔,第46-53页 [26] 李杰(2013)Logistic回归。课程笔记。http://sites.stat.psu.edu/佳丽/课程/stat597e/notes2/logit.pdf [27] Liu ZG,Pan Q,Dezert J,Mercier G(2015)基于置信函数的Credal c-means聚类方法。基于知识的系统74:119-132·doi:10.1016/j.knosys.2014.11.013 [28] Liu ZG,Pan Q,Dezert J,Mercier G(2017)不确定数据的混合分类系统。IEEE Trans Syst Man Cybern Syst(出版中)。https://doi.org/10.109/TSMC.2016.2622247 [29] Ma L,Destercke S,Wang Y(2016)基于证据数据的决策树在线主动学习。Patt Recognit图案识别52:33-45·Zbl 1394.68302号 ·doi:10.1016/j.patcog.2015.014 [30] Mardia KV(1970)多元偏度和峰度的测量及其应用。生物特征57(3):519-530·Zbl 0214.46302号 ·doi:10.1093/biomet/57.3.519 [31] McLachlan GJ,Krishnan T(1997)EM算法和扩展。纽约威利·Zbl 0882.62012号 [32] McLachlan GJ,Peel D(2000)有限混合模型。纽约威利·Zbl 0963.62061号 ·doi:10.1002/0471721182 [33] Nguyen N,Caruana R(2008)部分标签分类。摘自:第14届ACM SIGKDD知识发现和数据挖掘国际会议论文集,KDD’08。美国纽约州纽约市ACM,第551-559页 [34] Peters G、Crespo F、Lingras P、Weber R(2013)《软聚类:模糊和粗糙方法及其扩展和衍生》。国际J近似原因54(2):307-322·doi:10.1016/j.ijar.2012.10.03 [35] Press SJ,Wilson S(1978),在逻辑回归和判别分析之间进行选择。美国统计协会杂志73(364):699-705·Zbl 0399.62060号 ·doi:10.1080/01621459.1978.10480080 [36] Quost B(2014)通过证据EM算法对软标记实例进行Logistic回归。摘自:Cuzzolin F(ed)《信念函数:理论与应用第三届国际会议论文集》,belief 2014。2014年9月26日至28日,英国牛津。查姆施普林格,第77-86页 [37] Quost B,Denoeux T(2016)使用模糊EM算法对模糊数据进行聚类和分类。模糊集系统286:134-156·Zbl 06840610号 ·doi:10.1016/j.fss.2015.04.012 [38] Ramasso E,Denœux T(2013)利用HMM中隐藏状态的部分知识:基于信念函数的方法。IEEE Trans Fuzzy系统21(6):1-11·doi:10.1109/TFUZZ.2013.2291136 [39] Richard C(1998)《保护结构重要性的方法》。应用程序au-plan-temps-fréquence。Compiègne技术大学博士论文 [40] Richard C,LengelléR(1999),数据驱动设计和时频检测器的复杂性控制。Sig过程77:37-48·Zbl 1026.94514号 ·doi:10.1016/S0165-1684(99)00021-3 [41] Rjab AB、Kharoune M、Miklos Z、Martin A(2016)众包平台专家的特征描述。载于:VejnarováJ,Kratochvíl V(eds)《第四届信仰功能:理论与应用国际会议论文集》,belief 2016,捷克共和国布拉格,2016年9月21日至23日。施普林格,查姆,第97-104页 [42] Shafer G(1976)证据的数学理论。普林斯顿大学出版社·Zbl 0359.62002号 [43] Strat TM(1990)使用信念函数的决策分析。国际J近似原因4(5-6):391-417·Zbl 0706.68089号 ·doi:10.1016/0888-613X(90)90014-S [44] Sutton-Charani N,Destercke S,Denoeux T(2013)使用证据EM方法从不确定数据中学习决策树。In:第12届机器学习和应用国际会议,2013年,第1卷,第111-116页 [45] Sutton-Charani N,Destercke S,Denœux T(2014)《从证据数据训练和评估分类器:应用于E2M决策树修剪》。摘自:Cuzzolin F(ed)《信念函数:理论与应用第三届国际会议论文集》,belief 2014。英国牛津,2014年9月26-28日。查姆施普林格,第87-94页 [46] Trabelsi S,Elouedi Z,Mellouli K(2007)平均法和合取法中的剪枝信念决策树方法。国际J近似原因46(3):568-595·Zbl 1185.68718号 ·doi:10.1016/j.ijar.2007.02.004 [47] Zadeh LA(1978)模糊集作为可能性理论的基础。模糊集系统1:3-28·Zbl 0377.04002号 ·doi:10.1016/0165-0114(78)90029-5 [48] Zhou K,Martin A,Pan Q(2014)证据-EM算法应用于逐步删失观测。在:Laurent A,Strauss O,Bouchon Meunier B,Yager RR(编辑)第15届知识型系统信息处理和不确定性管理国际会议论文集,IPMU 2014,法国蒙彼利埃,第三部分,2014年7月15日至19日。查姆施普林格,第180-189页·Zbl 1415.68246号 此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。