×

通过深度生成模型复制ML/MF和AM面片的神经科学观察结果。 (英语) 2017年9月14日Zbl

摘要:最近的一篇论文[L.Chang先生D.Y.Tsao先生,“灵长类大脑中的面部识别代码”,Cell 169,No.6,1013–1028(2017;doi:10.1016/j.cell.2017.05.011)]报道了一个有趣的发现。对于由预处理的主动外观模型(AAM)生成的面部刺激,灵长类大脑中负责面部识别的区域的神经元的反应与生成面部刺激的AAM的形状变量和外观变量呈强线性关系。在这封信中,我们证明了这种行为可以通过深度生成模型,即生成器网络来复制,该模型假设观测到的信号是由潜在随机变量通过自顶向下的卷积神经网络生成的,我们使用变分自动编码器从预处理AAM模型生成的人脸图像中学习生成网络,并且我们表明,所学习生成网络的推断潜在变量与生成人脸图像的AAM模型的形状和外观变量具有很强的线性关系。与AAM模型不同,AAM模型有一个显式形状模型,其中形状变量生成控制点或地标,生成器网络没有此类形状模型和形状变量。然而,它可以学习形状知识,即学习的生成器网络的一些潜在变量捕获AAM生成的人脸图像中的形状变化。

MSC公司:

92B20型 生物研究、人工生命和相关主题中的神经网络
68吨10 模式识别、语音识别

软件:

InfoGAN公司亚当
PDF格式BibTeX公司 XML格式引用
全文: DOI程序

参考文献:

[1] Blei,D.M.、Kucukelbir,A.和McAuliffe,J.D.(2017年)。变分推理:统计学家综述。美国统计协会杂志,112(518),859-877,
[2] Chang,L.,&Tsao,D.Y.(2017)。灵长类动物大脑中面部识别的代码。单元格,169(6),1013-1028,
[3] Chen,X.、Duan,Y.、Houthooft,R.、Schulman,J.、Sutskever,I.和Abbeel,P.(2016)。Infogan:通过信息最大化生成性对抗网络进行可解释表示学习。D.D.Lee、M.Sugiyama、U.V.Luxburg、I.Guyon和R.Garnett(编辑),《神经信息处理系统的进展》,29(第2172-2180页)。纽约州红钩市:Curran。
[4] Cootes,T.F.、Edwards,G.J.和Taylor,C.J.(2001年)。活动外观模型。IEEE模式分析和机器智能汇刊,23(6),681-685,
[5] Cootes,T.、Roberts,M.、Baballola,K.和Taylor,C.(2015)。活动形状和外观模型。在N.Paragios、D.Nikos和N.Ayache(编辑),生物医学成像手册(第105-122页)。柏林:斯普林格,
[6] Dempster,A.P.、Laird,N.M.和Rubin,D.B.(1977年)。通过EM算法从不完整数据中获得最大似然。《皇家统计学会杂志》:B,39,1-38·Zbl 0364.62022号
[7] Denton,E.L.、Chintala,S.、Szlam,A.和Fergus,R.(2015)。使用拉普拉斯金字塔对抗网络的深层生成图像模型。C.Cortes、N.D.Lawrence、D.D.Lee、M.Sugiyama和R.Garnett(编辑),《神经信息处理系统的进展》,28(第1486-1494页)。纽约州红钩市:Curran。
[8] Dinh,L.、Sohl-Dickstein,J.和Bengio,S.(2016)。使用真实NVP进行密度估计。CoRR,abs/1605.08803。
[9] Dosovitskiy,E.、Springenberg,J.T.和Brox,T.(2015)。学习使用卷积神经网络生成椅子。IEEE计算机视觉和模式识别会议论文集。新泽西州皮斯卡塔韦:IEEE,
[10] Goodfellow,I.,Pouget-Abadie,J.,Mirza,M.,Xu,B.,Warde-Farley,D.,Ozair,S.,…Bengio,Y.(2014)。生成性对抗网络。Z.Ghahramani、M.Welling、C.Cortes、N.D.Lawrence和K.Q.Weinberger(编辑),《神经信息处理系统的进展》,27(第2672-2680页)。纽约州红钩市:Curran。
[11] Han,T.,Lu,Y.,Zhu,S.-C.,&Wu,Y.N.(2017)。发电机网络的交替反向传播。第31届AAAI人工智能会议论文集。帕洛·阿托:AAAT出版社。
[12] Higgins,I.、Matthey,L.、Pal,A.、Burgess,C.、Glorit,X.、Botvinick,M.、…Lerchner,A.(2017)。beta-vae:用约束变分框架学习基本的视觉概念。ICLR,2(5),6。
[13] Hinton,G.E.、Dayan,P.、Frey,B.J.和Neal,R.M.(1995)。无监督神经网络的“尾流”算法。《科学》,268(5214),1158-1161,
[14] Ioffe,S.和Szegedy,C.(2015)。批量规范化:通过减少内部协变量偏移来加速深层网络培训。第32届机器学习国际会议论文集。
[15] Kingma,D.和Ba,J.(2014)。亚当:一种随机优化方法。arXiv:1412.6980。
[16] Kingma,D.P.和Welling,M.(2013年)。自动编码变分贝叶斯。arXiv:1312.6114。
[17] Kingma,D.P.和Welling,M.(2014)。自动编码变分贝叶斯。在ICLR中。
[18] Li,Y.、Swersky,K.和Zemel,R.(2015)。生成力矩匹配网络。在第32届国际机器学习会议论文集(第1718-1727页)。
[19] Montufar,G.F.、Pascanu,R.、Cho,K.和Bengio,Y.(2014年)。关于深度神经网络的线性区域数。Z.Ghahramani、M.Welling、C.Cortes、N.D.Lawrence和K.Weinberger(编辑),《神经信息处理系统的进展》,27(第2924-2932页)。纽约州红钩市:Curran。
[20] Oord,A.V.d.、Kalchbrenner,N.和Kavukcuoglu,K.(2016)。像素递归神经网络。第33届机器学习国际会议论文集(第1747-1756页)。
[21] Radford,A.、Metz,L.和Chintala,S.(2016)。深度卷积生成对抗网络的无监督表示学习。国际解放卢旺达民主共和国。
[22] Rezende,D.J.、Mohamed,S.和Wierstra,D.(2014)。深度生成模型中的随机反向传播和近似推理。在T.Jebara和E.P.Xing(编辑),《国际机器学习会议论文集》(第1278-1286页)。
[23] Salimans,T.、Kingma,D.和Welling,M.(2015)。马尔可夫链蒙特卡罗和变分推理:弥合差距。第32届机器学习国际会议论文集(第1218-1226页)。
[24] Stevens,C.F.(2018)。灵长类面部代码的保留特征。《美国国家科学院院刊》,115(3),584-588,
[25] Xing,X.,Han,T.,Gao,R.,Zhu,S.-C.,&Wu,Y.N.(2019)。可变形生成器网络对外观和几何图形的无监督解缠。IEEE计算机视觉和模式识别会议论文集(第10354-10363页)。新泽西州皮斯卡塔韦:IEEE。
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。