×

用于降维的半监督局部Fisher判别分析。 (英语) Zbl 1470.68180号

小结:当只有少量标记样本可用时,监督降维方法往往由于过拟合而表现不佳。在这种情况下,未标记的样本可能有助于提高性能。在本文中,我们提出了一种半监督降维方法,该方法除了将不同类别的标记样本彼此分离之外,还保留了未标记样本的全局结构。该方法称为SEmi监督的局部Fisher判别分析(SELF),具有全局最优解的解析形式,可以基于特征分解进行计算。我们通过对基准和真实文档分类数据集的实验,展示了SELF的有用性。

MSC公司:

68T05型 人工智能中的学习和自适应系统
62H25个 因子分析和主成分;对应分析
62H30型 分类和区分;聚类分析(统计方面)

软件:

达奇
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] Albert,A.(1972年)。回归和Moore-Penrose伪逆。圣地亚哥:学术出版社·Zbl 0253.62030号
[2] Aronszajn,N.(1950)。再生核理论。美国数学学会学报,68,337-404·Zbl 0037.20701号 ·数字对象标识代码:10.2307/1990404
[3] Bai,Z.、Demmel,J.、Dongarra,J.,Ruhe,A.和van der Vorst,H.(编辑)(2000年)。特征值问题的解决模板:实用指南。费城:工业和应用数学学会·Zbl 0965.65058号
[4] Belkin,M.和Niyogi,P.(2003)。用于降维和数据表示的拉普拉斯特征映射。神经计算,151373-1396·Zbl 1085.68119号 ·doi:10.1162/089976603321780317
[5] Belkin,M.、Niyogi,P.和Sindhwani,V.(2006年)。流形正则化:从标记和未标记示例学习的几何框架。机器学习研究杂志,72399-2434·Zbl 1222.68144号
[6] Boyd,S.和Vandenberghe,L.(2004)。凸优化。剑桥:剑桥大学出版社·Zbl 1058.90049号
[7] Cai,D.、He,X.和Han,J.(2007)。半监督判别分析。《IEEE计算机视觉国际会议论文集》(第1-7页),巴西里约热内卢·Zbl 1225.62089号
[8] Chapelle,O.、Schölkopf,B.和Zien,A.(编辑)(2006年)。半监督学习。剑桥:麻省理工学院出版社。
[9] Chung,F.R.K.(1997年)。谱图理论。普罗维登斯:美国数学学会·Zbl 0867.05046号
[10] Davidov,D.、Gabrilovich,E.和Markovitch,S.(2004)。基于层次目录的文本分类的标记数据集的参数化生成。第27届ACM SIGIR国际年会(第250-257页),英国谢菲尔德。
[11] 达菲,北。;Collins,M.,《自然语言的卷积核》,第14期,625-632(2002),剑桥
[12] Fisher,R.A.(1936年)。在分类问题中使用多重测量。优生学年鉴,7179-188。
[13] Friedman,J.H.(1989)。正则化判别分析。美国统计协会杂志,84,165-175·doi:10.2307/2289860
[14] Fukunaga,K.(1990年)。统计模式识别导论(第二版)。圣地亚哥:学术出版社·Zbl 0711.62052号
[15] Gärtner,T.(2003)。结构化数据的内核调查。SIGKDD勘探,5,S268-S275·数字对象标识代码:10.1145/959242.959248
[16] Gärtner,T.、Flach,P.和Wrobel,S.(2003)。关于图核:硬结果和有效的替代方案。第十六届计算学习理论年会论文集(第129-143页)·Zbl 1274.68312号
[17] A.Globerson。;Roweis,S.,《通过崩溃课堂进行的度量学习》,第18期,451-458(2006),剑桥
[18] Goldberger,J。;Roweis,S。;辛顿,G。;Salakhutdinov,R.,《邻里成分分析》,第17期,513-520(2005),剑桥
[19] Guyon,I.和Elisseeff,A.(2003)。变量和特征选择简介。机器学习研究杂志,31157-1182·Zbl 1102.68556号 ·doi:10.1162/153244303322753616
[20] 何,X。;Niyogi,P.,《局部保护预测》,第16期,153-160(2004),剑桥
[21] Hinton,G.E.和Salakhuttinov,R.R.(2006年)。利用神经网络降低数据的维数。《科学》,313504-507·Zbl 1226.68083号 ·doi:10.1126/science.1127647
[22] Joachims,T.(2002)。学习使用支持向量机对文本进行分类:方法、理论和算法。多德雷赫特:克鲁沃学院。
[23] 乔利夫,I.T.(1986)。主成分分析。纽约:斯普林格·Zbl 1011.62064号
[24] 鹿岛,H。;Koyanagi,T.,《半结构化数据的内核》,291-298(2002),圣马特奥
[25] 鹿岛,H。;Tsuda,K。;Inokuchi,A.,标记图之间的边缘化核,321-328(2003),圣马特奥
[26] Kohavi,R.和John,G.(1997年)。用于特征选择的包装器。人工智能,97,273-324·Zbl 0904.68143号 ·doi:10.1016/S0004-3702(97)00043-X
[27] Kondor,R.I.和Lafferty,J.(2002年)。图和其他离散输入空间上的扩散核。《第十九届机器学习国际会议论文集》(第315-322页)。
[28] Lodhi,H.、Saunders,C.、Shawe-Taylor,J.、Cristianini,N.和Watkins,C.(2002)。使用字符串内核进行文本分类。机器学习研究杂志,2419-444·Zbl 1013.68176号 ·doi:10.1162/1532443027600687
[29] Loog,M.(2007)。广义Fisher准则解族的完整特征。机器学习研究杂志,82121-2123·Zbl 1222.68250号
[30] Loog,M.(2008)。关于线性降维变换的等价性。机器学习研究杂志,9,2489-2490·Zbl 1225.62085号
[31] Mika,S.、Rätsch,G.、Weston,J.、Schölkopf,B.、Smola,A.和Müller,K.-R(2003)。构建描述性和区分性非线性特征:核特征空间中的瑞利系数。IEEE模式分析和机器智能汇刊,25623-628·doi:10.1109/TPAMI.2003.1195996
[32] Quiñonero-Candela,J.、Sugiyama,M.、Schwaighofer,A.和Lawrence,N.(编辑)(2009年)。机器学习中的数据集转移。剑桥:麻省理工学院出版社。
[33] Rätsch,G.、Onoda,T.和Müller,K.-R.(2001)。adaboost的软边距。机器学习,42,287-320·兹伯利0969.68128 ·doi:10.1023/A:1007618119488
[34] Roweis,S.和Saul,L.(2000)。局部线性嵌入的非线性降维。科学,2902323-2326·doi:10.1126/science.290.5500.2323
[35] Schölkopf,B.、Smola,A.和Müller,K.-R(1998)。非线性分量分析是一个核心特征值问题。神经计算,10,1299-1319·doi:10.1162/08997669830017467
[36] Shimodaira,H.(2000)。通过加权对数似然函数改进协变量移位下的预测推断。《统计规划与推断杂志》,90,227-244·Zbl 0958.62011号 ·doi:10.1016/S0378-3758(00)00115-4
[37] Song,Y.,Nie,F.,Zhang,C.,&Xiang,S.(2008)。半监督降维的统一框架。模式识别,412789-2799·Zbl 1154.68501号 ·doi:10.1016/j.patcog.2008.01.01
[38] Sugiyama,M.(2007年)。通过局部Fisher判别分析对多模态标记数据进行降维。机器学习研究杂志,81027-1061·Zbl 1222.68312号
[39] Sugiyama,M.、Krauledat,M.和Müller,K.-R(2007)。通过重要性加权交叉验证实现协变量移位适应。机器学习研究杂志,8,985-1005·Zbl 1222.68313号
[40] 杉山,M。;Ide,T。;南岛中岛。;Sese,J.,用于降维的半监督局部Fisher判别分析,333-344(2008),柏林·doi:10.1007/978-3-540-68125-0_30
[41] Tenenbaum,J.B.、de Silva,V.和Langford,J.C.(2000)。非线性降维的全局几何框架。科学,2902319-2323·Zbl 0955.37025号 ·doi:10.1126/science.290.5500.2319
[42] 温伯格,K。;布利泽,J。;Saul,L.,《大幅度最近邻分类的距离度量学习》,第18期,1473-1480(2006),剑桥
[43] Xing,E.P。;Ng,A.Y。;M.I.乔丹。;Russell,S.,《应用于带有副信息的聚类的距离度量学习》,第15期,505-512(2003),剑桥
[44] Ye,J.(2005)。欠采样问题广义判别分析的一系列算法的特征。《机器学习研究杂志》,6483-502·Zbl 1222.62081号
[45] Ye,J.(2008)。关于广义Fisher准则解族的完整特征的评论。机器学习研究杂志,9517-519·Zbl 1225.62089号
[46] Zadrozny,B.,在样本选择偏差下学习和评估分类器,903-910(2004),纽约
[47] Zelnik-Manor,L。;Perona,P.,自校正谱聚类,第17期,1601-1608(2005),剑桥
[48] Zhang,D.,Zhou,Z.-H.,&Chen,S.(2007)。半监督降维。第七届SIAM数据挖掘国际会议论文集(第629-634页),美国明尼阿波利斯。
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。