金泰坤;比约恩·斯坦格;约瑟夫·基特勒;罗伯托·西波拉 使用充分生成集的增量线性判别分析及其应用。 (英语) Zbl 1235.68272号 国际期刊计算。视觉。 91,第2期,216-232(2011). 摘要:本文提出了线性判别分析(LDA)的增量学习解决方案及其在目标识别问题中的应用。我们将充分生成集近似应用于三个步骤,即总散布矩阵的更新、类散布矩阵和投影数据矩阵之间的更新,从而得到一个在精度上与批处理解密切一致的在线解,同时大大降低了计算复杂度。即使在类数和集合大小较大的情况下,该算法也能有效地求解增量LDA。增量LDA方法也被证明对半监督在线学习有用。标签传播是通过将增量LDA集成到EM框架中来完成的。该方法已在合并MPEG标准化过程中收集的大型数据集的任务中进行了演示,这些数据集用于人脸图像检索、使用BANCA数据集进行人脸认证以及使用Caltech101数据集进行对象分类。 引用于5文件 MSC公司: 68T45型 机器视觉和场景理解 62H25个 因子分析和主成分;对应分析 68T05型 人工智能中的学习和自适应系统 关键词:线性鉴别分析;本地设计院;增量学习;在线学习;标签传播;半监督学习;人脸图像检索;物体识别;对象分类;人脸身份验证 PDF格式BibTeX公司 XML格式引用 \textit{T.-K.Kim}等人,《国际计算杂志》。视觉。91,第2号,216--232(2011;Zbl 1235.68272) 全文: 内政部 链接 参考文献: [1] Bar-Hillel,A.、Hertz,T.、Shental,N.和;Weinshall,D.(2005)。从等价约束中学习马氏度量。《机器学习研究杂志》,61937–965·Zbl 1222.68140号 [2] M.Belkin和;Niyogi,P.(2004)。本地和全球一致性学习。程序中。NIPS·Zbl 1089.68086号 [3] Berg,A.、Berg,T.和;Malik,J.(2005)。使用低失真对应的形状匹配和对象识别。程序中。CVPR。 [4] Bouveyron,C.、Girard,S.和;Schmid,C.(2004)。视觉中物体识别的降维和分类方法。程序中。2004年5月,法国沙特鲁西圣彼得堡,第五届法国-丹麦生物空间统计和图像分析研讨会。 [5] Chan,C.-H.,Kittler,J.和;Messer,K.(2007)。用于人脸识别的多尺度局部二值模式直方图。程序中。国际竞争性招标(第809–818页)。 [6] Cheng,H.、Liu,Z.和;Yang,J.(2009)。稀疏性诱导的标签传播相似性度量。程序中。ICCV。 [7] Chin,T.-J.和;Suter,D.(2006)。增量核PCA用于有效的非线性特征提取。程序中。BMVC的。 [8] De la Torre Frade,F.、Gross,R.、Baker,S.和;Kumar,V.(2005)。用于人脸识别的面向表征的成分分析(ROCA),每个训练类一个样本图像。程序中。CVPR。 [9] Fei-Fei,L.、Fergus,R.和;Perona,P.(2004)。从很少的训练示例中学习生成性视觉模型。程序中。CVPR GMBV研讨会。 [10] Fukunaga,K.(1990年)。统计模式识别导论。波士顿:学术出版社·Zbl 0711.62052号 [11] 格劳曼,K.,&;Darrell,T.(2005)。金字塔匹配核:具有图像特征集的鉴别分类。程序中。ICCV·兹比尔1222.68206 [12] Hall,P.、Marshall,D.和;Martin,R.(2000年)。合并和拆分特征空间模型。IEEE模式分析和机器智能汇刊,22(9),1042-1049·doi:10.1109/34.877525 [13] Hiraoka,K.、Hidai,K.,Hamahira,M.、Mizoguchi,H.、Mishima,T.和;Yoshizawa,S.(2000年)。线性判别分析的连续学习:桑格型算法。程序中。ICPR的。 [14] A.D.Holub、M.Welling和;Perona,P.(2005)。利用未标记数据进行混合对象分类。程序中。NIPS班间转移研讨会。 [15] Kamei,T.、Yamada,A.、Kim,T.,Kim,H.、Hwang,W.和;Kee,S.(2002)。使用傅里叶和强度LDA特征的高级人脸描述符。ISO/IEC JTC1/SC29/WG11 M8998,2002年10月。 [16] Kim,H.-C.,Kim,D.和;Bang,S.Y.(2003)。基于LDA混合模型的人脸识别。模式识别字母,24(15),2815–2821·doi:10.1016/S0167-8655(03)00126-0 [17] Kim,T.-K.,Kim,H.,Hwang,W.,&;Kittler,J.(2005)。用于图像检索和MPEG-7标准化的基于组件的LDA人脸描述。图像和视觉计算,23631-642·doi:10.1016/j.imavis.2005.02.005 [18] Kim,T.-K.,Kittler,J.和;Cipolla,R.(2007)。使用典型相关性的图像集类的判别学习和识别。IEEE模式分析和机器智能汇刊,29(6),2007年6月。 [19] Kim,T.-K.,Wong,S.-F.,Stenger,B.,Kittler,J.和;Cipolla,R.(2007)。使用充分生成集近似的增量线性判别分析。程序中。位于明尼苏达州明尼阿波利斯的CVPR。 [20] Leibe,B.和;Schiele,B.(2003)。分析基于外观和轮廓的对象分类方法。程序中。CVPR(第409–415页)。 [21] Lin,R.-S.,Ross,D.,Lim,J.和;Yang,M.-H.(2005)。自适应判别生成模型及其应用。程序中。NIPS。 [22] Manjunath,B.S.,Salembier,P.P.和;Sikora,T.(2002)。MPEG-7简介:多媒体内容描述界面。纽约:威利。 [23] Messer,K.等人(2004年)。面对BANCA数据库上的认证竞争。程序中。ICPR。 [24] Moosmann,F.、Triggs,B.和;Jurie,F.(2007)。使用随机聚类森林的快速区分视觉码本。程序中。NIPS。 [25] 马奇·J·;Lowe,D.(2006)。具有稀疏、局部特征的多类对象识别。程序中。CVPR。 [26] Niebles,J.C.、Wang,H.和;Fei-Fei,L.(2008)。使用时空词汇对人类行为类别进行无监督学习。国际计算机视觉杂志。 [27] Oja,E.(1983年)。模式识别的子空间方法。研究出版社。 [28] Pang,S.、Ozawa,S.和;Kasabov,N.(2005年)。数据流分类的增量线性判别分析。IEEE系统、人与控制论汇刊,905-914。 [29] Poh,N.等人(2009年)。面对视频比赛。程序中。ICPR的。 [30] Skocaj,D.和;Leonardis,A.(2003)。子空间学习的加权稳健增量方法。程序中。ICCV的。 [31] Stenger,B.、Woodley,T.、Kim,T.-K.、Hernandez,C.和;Cipolla,R.(2008)。AIDIA–显示交互的自适应接口。程序中。英国利兹BMVC。 [32] Tao,X.、Ye,J.、Li,Q.、Janardan,R.和;Cherkassky,V.(2004)。通过QR分解进行有效的核鉴别分析。程序中。NIPS。 [33] Uray,M.、Skocaj,D.、Roth,P.、Bischof,H.和;Leonardis,A.(2007)。结合重建和区分方法的增量LDA学习。程序中。BMVC的。 [34] Wang,F.和;Zhang,C.(2007)。通过线性邻域进行标签传播。程序中。ICML的。 [35] Wang,X.,Han,T.X.,&;Yan,S.(2009)。具有部分遮挡处理功能的HOG-LBP人体探测器。程序中。京都ICCV。 [36] Winn,J.、Criminisi,A.和;Minka,T.(2005)。通过学习通用视觉词典进行对象分类。程序中。ICCV。 [37] Wu,Y.,&;Huang,S.(2000)。手部姿势的视相关识别。程序中。CVPR(第2088–2094页)。 [38] Yan,J.,Zhang,B.,Yan,S.,Yang,Q.,&;Li,H.(2004)。IMMC:增量最大裕度标准。程序中。知识发现和数据挖掘。 [39] Ye,J.、Li,Q.、Xiong,H.、Park,H.和Janardan,V;Kumar,V.(2005年)。IDR/QR:一种基于QR分解的增量降维算法。IEEE知识与数据工程汇刊,17(9),1208–1222·doi:10.1109/TKDE.2005.148 [40] Yu,H.和;Yang,H.(2001)。一种用于高维数据的直接LDA算法-应用于人脸识别。模式识别,34(10),2067–2070·Zbl 0993.68091号 ·doi:10.1016/S0031-3203(00)00162-X [41] Zhu,X.(2006)。半监督学习文献调查。威斯康星大学麦迪逊分校计算机科学TR 1530。 此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。