{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期部分”:[[2024,6,14]],“日期时间”:“2024-06-14T07:16Z”,“时间戳”:1718349496384},“发布者位置”:“Cham”,“引用计数”:85,“发布商”:“Springer Nature Switzerland”,“isbn-type”:[{“值”:“9783031197772”,“键入”:“打印”},{“值”:“9783031197789”,“类型”:“electronic”}],“license”:[{“start”:{“date-parts”:[[2022,1,1]],“date-time”:“2022-01-01T00:00:00Z”,“timestamp”:1640995200000},“content-version”:“tdm”,“delay-in-days”:0,“URL”:“https:\\/www.springer.com\/tdm”}:1640995200000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“https:\/\/www.springer.com//tdm”}],“content-domain”:{“domain”:[“link.springer.com”],“crossmark-restriction”:false},“short-container-title”:[],“published-print”:{“date-parts”:[[2022]]},”DOI“:”10.1007\/978-3031-1978-9_15“,”type“:”book-capter“,”created“:{”date-part“:[2022,11,2]],”日期时间“:”2022-11-02T20:28:41Z“,”时间戳“:1667420921000},“page”:“250-269”,“update-policy”:”http://\/dx.doi.org\/10.1007\/springer_crossmark_policy“,”source“:”Crossref“,“is-referenced-by-count”:43,“title”:[“Towards Metrical Reconstruction of \u00a0 Human Faces”],“prefix”:“10.1007”,“author”:[{“给定”:“Wojciech”,“family”:“Zielonka”,“sequence”:“first”,“affiliation”:[]},{“given”“:”Timo“,”family“:”Bolkart“、“sequence”:“additional”,“affiliation”:[]},{“given”:“Justus”,“family”:“Thies”,“sequences”:“附加”,“从属”:[]}],“member”:“297”,“published-on-line”:{“date-parts”:[2022,11,3]]}:“Abrevaya,V.F.,Boukhayma,A.,Torr,P.H.,Boyer,E.:具有非激活跳跃连接的跨模态深面法线。摘自:计算机视觉与模式识别会议(CVPR),第4978\u20134988页(2020)”},{“key”:“15_CR2”,“doi-asserted-by”:“crossref”,“unstructured”:“An,X.,et al.:Partial fc:在一台机器上训练1000万个身份。In:Arxiv 2010.05222(2020)”,“DOI”:“10.1109\\ICCVW54120.2021.00166”},{“key”:“15_CR3”,“DOI asserted by”:“publisher”,“unstructured”:“Bagdanov,A.D.,Del Bimbo,A.,Masi,I.:florence 2D\/3D混合人脸数据集。在:2011年ACM人类手势和行为理解联合研讨会论文集,J-HGBU 2011,pp.79\u201380。美国纽约州纽约市计算机协会(2011年)。https:\/\/doi.org\/10.1145\/2072572.2072597,https:\//doi.org\/10.1145\/207272572.20072597,“doi”:“10.1145\/2072 572.20725597”},{“issue”:“10”,“key”:“15_CR4”,“doi-asserted-by”:“publisher”,“first page”::“1455”,“doi:”10.1007\/s1123-019-01197-x“,”volume“127”,”author“A Bas”“,”年份“:”2019年“,”非结构化“:”Bas,A.,Smith,W.A.P.:关于3D人脸形状,2D几何信息真正告诉了我们什么?国际期刊计算。签证。127(10),1455\u20131473(2019)“,“期刊标题”:“国际计算杂志”。签证。},{“key”:“15_CR5”,“unstructured”:“Besl,P.J.,McKay,N.D.:三维形状注册方法。In:Sensor Fusion IV:Control Paradigms and Data Structures,vol.1611,pp.586\u2013606。国际光学与光子学学会,Bellingham(1992)“},{“key”:“15_CR6”,“doi-asserted-by”:“crossref”,“unstructured”:“Blanz,V.,Basso,C.,Poggio,T.,Vetter,T.:图像和视频中的人脸动画。摘自:EUROGRAPHICS(EG),第22卷,第641\u2013650页(2003)”,“doi”:“10.1111\/1467-8659.t01-1-00712”},},“ission”:“3”,“key“:”15_CR7“,”doi-asserted-by“:”publisher“,”first-page“:”669“,”doi“:”10.1111\/j.1467-8659.2004.00799.x“,”volume“:”23“,”author“:”V Blanz“,”year“:”2004“,”unstructured“:”Blanz,V.,Scherbaum,K.,Vetter,T.,Seidel,H.P.:在图像中交换面孔。计算。图表。论坛23(3),669\u2013676(2004)“,“新闻标题”:“计算。图表。论坛“},{“key”:“15_CR8”,“doi-asserted-by”:“crossref”,“unstructured”:“Blanz,V.,Vetter,T.:3D人脸合成的可变形模型。摘自:SIGGRAPH,pp.187\u2013194(1999)”,“doi”:“10.1145\/311535.31556”},}“key”:“15 _CR9”,“doi-asserted-by”:“crossrev”,《非结构化》:“Bulat,A.,Tzimiropoulos,G.:我们距离解决2D和3D人脸对齐问题还有多远?(以及230000个3d面部标志的数据集)。In:计算机视觉国际会议(2017)“,”DOI“:”10.1109\/ICCV.2017.116“},{“key”:“15_CR10”,“DOI-asserted-by”:“crossref”,“unstructured”:“Cao,C.,Weng,Y.,Zhou,S.,Tong,Y.Zhou10.1109\/TVCG.2013.249“},{“key”:“15_CR11”,“doi-asserted-by”:“crossref”,“unstructured”:“Chang,F.J.,Tran,A.T.,Hassner,T.,Masi,I.,Nevatia,R.,Medioni,G.:ExpNet:无标记,深度,三维面部表情。In:自动人脸和手势识别国际会议(FG),pp.122\u2013129(2018)”,“doi”:“10.1109\/FG.2018.00027”}key“:”15_CR12“,”series-title“:”计算机科学课堂讲稿“,”doi-asserted-by“:”publisher“,”first page“:“142”,”doi“:”10.1007\/978-3-030-58558-7_9“,”volume-title“:“Computer Vision\u2013 ECCV 2020”,”author“:”B Chaudhuri“,”year“:”2020“,”unstructured“:”Chaudhury,B.,Vesdapunt,N.,Shapiro,L.,Wang,B.:个性化面部建模,用于改进面部重建和运动重定目标。收录人:Vedaldi,A.、Bischof,H.、Brox,T.、Frahm,J.-M.(编辑)ECCV 2020。LNCS,第12350卷,第142\u2013160页。查姆施普林格(2020)。https:\/\/doi.org\/10.1007\/978-3-030-58558-7_9“},{“key”:“15_CR13”,“doi-asserted-by”:“crossref”,“unstructured”:“Chen,A.,Chen,Z.,Zhang,G.,Mitchell,K.,Yu,J.:从单个图像合成真实感照片面部细节。摘自:IEEE国际计算机视觉会议论文集,第9429\u20139439(2019)页”,“doi”:“10.1109\/ICCV.2019.00952“},{“key”:“15_CR14”,“doi-asserted-by”:“crossref”,“unstructured”:“Chung,J.S.,Nagrani,A.,Zisserman,A.:VoxCeleb2:深度说话人识别。In:\u201cINTERSPEECH\”(2018)“,”doi“:”10.21437\/Interspeech.2018-1929“}:“Cosker,D.,Krumhuber,E.,Hilton,A.:一个FACS有效的三维动态动作单元数据库,用于三维动态可变形面部建模。摘自:2011年计算机视觉国际会议,第2296\u20132303页(2011年)。https:\/\/doi.org\/10.109\/ICCV.2011.6126510”,“doi”:“10.1109\/ICCV.2011.6126510”},{“issue”:“2”,“key”:“15_CR16”,“doi-asserted-by”:“publisher”,“first page”:“547”,“doi”:“10.1007\/s11263-01260-7”,《volume》:“128”,“author”:“H Dai”,“year”:“2019”,“unstructured”:“Dai,H.,Pears,N.,Smith,W.,Duncan,C.:颅面形状和纹理的统计建模。国际计算机视觉128(2),547\u2013571(2019)。https:\\/doi.org\/10007\/s1263-01260-7“,“journal-title”:“Int.J.Compute.Vision”},{“key”:“15_CR17”,“series-title”:《计算机科学讲义》,“doi-asserted-by”:“publisher”,“first page”:《741》,“doi”:“10.1007\/978-3030-58621-8_43”,“volume-title》:“Computer Vision\u2013 ECCV 2020”,“author”:“J Deng”,“year”:“2020”,”非结构化“:“Deng,J.,Guo,J.,Liu,T.,Gong,M.,Zafeiriou,S.:副中心ArcFace:通过大规模嘈杂的网络人脸增强人脸识别。In:Vedaldi,A.,Bischof,H.,Brox,T.,Frahm,J.-M.(编辑)ECCV 2020。LNCS,第12356卷,第741\u2013757页。查姆施普林格(2020)。https:\/\/doi.org\/10.1007\/978-3-030-58621-8_43“},{“key”:“15_CR18”,“doi-asserted-by”:“crossref”,“unstructured”:“Deng,Y.,Yang,J.,Xu,S.,Chen,D.,Jia,Y.Tong,X.:使用弱监督学习进行精确的三维人脸重建:从单个图像到图像集。In:计算机视觉和模式识别研讨会(CVPR-W)(2019)“,”DOI“:”10.1109\/CVPRW.2019.00038“},{”key“:”15_CR19“,”DOI-asserted-by“:”crossref“,”unstructured“:”Dib,A.、Thebault,C.、Ahn,J.、Gosselin,P.、Theobalt,C.和Chevallier,L.:使用自监督学习和光线跟踪实现高保真度的单目人脸重建,具有丰富的反射率。收录于:国际计算机视觉会议(ICCV),第12819\u201312829(2021)页“,”DOI“:”10.1109\/ICCV48922.2021.01258“},{“key”:“15_CR20”,“DOI-asserted-by”:“crossref”,“unstructured”:“Dou,P.,Shah,S.K.,Kakadiaris,I.A.:用深层神经网络进行端到端3D人脸重建Arch.Computat.Methods Eng 29,3475\u20133507(2017)”,“DOI”:“10.1007\/s11831-021-09705-4“},{“key”:“15_CR21”,“doi-asserted-by”:“publisher”,“unstructured”:“Egger,B.,et al.:3D可变形人脸模型-过去、现在和未来。Transa.Graph.39(5)(2020)。https:\/\/doi.org\/10.1145\/3395208”,“doi”:“10.1145\/3395208”},}“key”:“15-CR22”,“非结构化”:“Feng,H.,Bolkart,T.:光度FLAME装配(2020年).https:\/\/github.com/HavenFeng\/photometric_optimization“},{“key”:“15_CR23”,“doi-asserted-by”:“crossref”,“unstructured”:“Feng,Y.,Feng,H.,Black,M.J.,Bolkart,T.:从自然图像中学习可设置动画的详细3D人脸模型。Trans.Graph。(Proc.SIGGRAPH)40(8)(2021)”,“doi”:“10.1145\/3450626.3459936”},},“key“:”15_CR24“,“”series-title“:“计算机科学课堂讲稿”,“doi-asserted-by”:“publisher”,“first page”:“557”,“doi”:“10.1007\/978-3-030-01264-9_33”,“volume-title”:“Computer Vision\u2013 ECCV 2018”,“author”:“Y Feng”,“year”:“2018”,”非结构化:“Feng,Y.,Wu,F.,Shao,X.,Wang,Y.Zhou,X.:使用位置图回归网络进行联合3D人脸重建和密集对齐。In:Ferrari,V.,Hebert,M.,Sminchisescu,C.,Weiss,Y.(eds.)Computer Vision\u2013 ECCV 2018。LNCS,第11218卷,第557\u2013574页。施普林格,查姆(2018)。https:\/\/doi.org\/10.1007\/978-3-030-01264-9_33“},{“key”:“15_CR25”,“doi-asserted-by”:“publisher”,“unstructured”:“Feng,Z.,et al.:评估野外二维人脸图像的密集三维重建。in:国际自动人脸和手势识别会议(FG),第780\u2013786页(2018)。https:\//doi.org\/10.109\/FG.2018.00123”,“DOI“:”10.1109\/FG.2018.00123“},{“key”:“15_CR26”,“DOI-asserted-by”:“crossref”,“unstructured”:“Feng,Z.,et al.:评估野外2D人脸图像的稠密三维重建。CoRR abs\/1803.05536(2018),https:\/\/arxiv.org\/abs\/1803.00536”,“DOI”:“10.1109\/FG.2018.0123”},“key“:”15_CR27“,”DOI-assert-by“:”crossref“,”非结构化“:”Garrido,P.、Valgaerts,L.、Rehmsen,O.、Thormaehlen,T.、Perez,P.和Theobalt,C.:自动面部再现。收录于:计算机视觉和模式识别会议(Conference on Computer Vision and Pattern Recognition,CVPR),第4217\u20134224页(2014)“,”DOI“:”10.1109\/CVPR.2014.537“},{”key“:”15_CR28“,”DOI-asserted-by“:”crossref“,”unstructured“:”Garrido,P.等人:VDub“修改演员面部视频,使其与配音音轨进行合理的视觉对齐。收录于《欧洲制图》(EG)第193\u2013204页(2015)“,”DOI“:”10.1111\/cgf.12552“},{“key”:“15_CR29”,“DOI-asserted-by”:“crossref”,“unstructured”:“Gecer,B.,Ploumpis,S.,Kotsia,I.,Zafeiriou,S.:GANFIT:适合高保真3D人脸重建的生成对抗网络。In:IEEE计算机视觉和模式识别会议(CVPR),2019年6月”,“DOI”:“10.1109\/CVPR.2019.00125“},{“key”:“15_CR30”,“doi-asserted-by”:“crossref”,“unstructured”:“Gecer,B.,Ploumpis,S.,Kotsia,I.,Zafeiriou,S.P.:Fast-GANFIT:高保真三维人脸重建的生成对抗网络。IEEE Trans.Pattern Anal.Mach.Intell..(2021)”,“doi”:“10.1109\/TPAMI.2021.3084524”},“{”key“:”15_CR31“,”doi-asserted-by“:”crossref“,”unstructured“:”Genova,K.,Cole,F.,Maschinot,A.,Sarna,A.,Vlasic,D.,Freeman,W.T.:三维变形模型回归的无监督训练(2018)“,”doi“:”10.1109\/CVPR.2018.00874“},{“key”:“15_CR32”,“doi-assert-by”:“publisher”,“unstructure”:“Grassal,P.W.、Prinzler,M.、Leistner,T.、Rother,C.、Nie\u00dfner,M.和Thies,J.:《单目RGB视频中的神经头像》(2021)。https:\/\/doi.org\/10.48550\/ARXIV.2112.01554,https:\//ARXIV.org\/abs\/2112.01554,“doi”:“10.48550\/ARXV.2112.0554”},{“key”:“15_CR33”,“doi-asserted-by”:“publisher”,“unstructured”:“Grishchenko,I.,Ablavatski,A.,Kartynik,Y.,Raveendran,K.,Grundmann,M.:注意网格:实时高精度人脸网格预测(2020).https:\/\/doi.org\/10.48550\/ARXIV.2006.10962,https:\/\/ARXIV.org\/abs\/2006.10962“,“doi”:“10.48550\/ARXV.2006.1096”},{“key”:“15_CR34”,“doi-asserted-by”:“publisher”,“unstructured”:“Guo,J.,Zhu,X.,Yang,Y.,Yaang,F.,Lei,Z.,Li,S.Z.:迈向快速、准确和稳定的三维密集面对齐(2020).https:\/\/doi.org\/10.48550\/ARXIV.2009.09960,https:\/\/ARXIV.org\/abs\/2009.09960,“doi”:“10.48550\/ARXIV.2009.09960”},{“key”:“15_CR35”,“doi-asserted-by”:“publisher”,“unstructured”:“G\u00fcler,R.A.,Trigeorgis,G.,Antonakos,E.,Snape,P.,Zafeiriou,S.,Kokkinos,I.:DenseReg:Fully Convolu野外国家稠密形状回归(2016).https:\/\/doi.org\/10.48550\/ARXIV.1612.01202,https:\/\/ARXIV.org\/abs\/1612.01202“,”doi“:”10.48550\/ARXV.1612.0120“}“,{”key“:”15_CR36“,”doi-asserted-by“:”publisher“,”unstructured“:”Hu,L.等人:从单个图像进行虚拟人物数字化以进行实时渲染。ACM Trans.Graph.36(6),14(2017)。https:\//doi.org\/10.10 145\/313080.31310887“,”DOI“:”10.1145\/313080.31310887“},{“key”:“15_CR37”,“DOI-asserted-by”:“publisher”,“unstructured”:“Jackson,A.S.,Bulat,A.,Argyriou,V.,Tzimiropoulos,G.:通过直接体积CNN回归从单个图像重建大姿态3D人脸(2017)。https:\\/DOI.org\/10.48550\/ARXIV.1703.07834,https:\\/ARXIV.org\/abs\/1703.07834”,“DOI”:“10.48550 \/ARXIV.1703.07834“},{“key”:“15_CR38”,“doi-asserted-by”:“crossref”,“unstructured”:“Karras,T.、Laine,S.、Aittala,M.、Hellsten,J.、Lehtinen,J.,Aila,T.:分析和提高StyleGAN的图像质量。In:Proceedings of CVPR(2020)”,“doi”:“10.1109 \/CVPR42600.2020.00813”},},“key“:”15_CR39“,“unsructured“:”Kartynik,Y.,Ablavatski,A.,Grishchenko,I.,Grundmann,M.:移动GPU上单目视频的实时面部表面几何学(2019)“},{“问题”:“4”,“关键”:“15_CR40”,“doi-asserted-by”:“出版商”,“首页”:“1”,“doi”:“10.1145\/3197517.3201283”,“卷”:“37”,“作者”:“H Kim”,“年份”:“2018”,“非结构化”:“Kim,H.等人:深度视频肖像。事务处理。图表。37(4),1\u201314(2018)“,“期刊标题”:“翻译。图表。“},{”key“:”15_CR41“,”doi-asserted-by“:”crossref“,”unstructured“:”Kim,H.,Zollh\u00f6fer,M.,Tewari,A.,Thies,J.,Richardt,C.,Theobalt,C.:InverseFaceNet:深度单目人脸反向渲染。In:计算机视觉与模式识别会议,2018年6月“,”doi“:”10.1109\/CVPR.2018.00486“}”,{“key”:“15_CR42”,“unstructure”:“”Kingma,D.P.,Ba,J.:亚当:随机优化方法。CoRR abs \/1412.6980(2015)“},{“key”:“15_CR43”,“series-title”:“计算机科学讲义”,“doi-asserted-by”:“publisher”,“first page”:”690“,“doi”:“10.1007\/978-3030-58536-5_41”,“volume-title”:”Computer Vision\u2013 ECCV 2020“,“author”:“T Koizumi”,“year”:“2020”,“unstructured”:“小泉,T.,Smith,W.A.P.:Look Ma,No Landmarks\u2013无监督,基于模型的密集面对齐。收录人:Vedaldi,A.、Bischof,H.、Brox,T.、Frahm,J.-M.(编辑)ECCV 2020。\u201clook ma,没有地标\“-无监督、基于模型的密集面对齐,第12347卷,第690\u2013706页。查姆施普林格(2020)。https:\/\/doi.org/10.1007\/978-3-030-58536-541“},{“key”:“15_CR44”,“doi断言”:“crossref”,“非结构化”:“Lattas,A.,et al.:AvatarMe:野外真实可渲染的3D面部重建”:“15_CR45”,“doi-asserted-by”:“crossref”,“unstructured”:“Lattas,A.,Moschoglou,S.,Ploumpis,S.、Gecer,B.,Ghosh,A.,Zafeiriou,S.P.:AvatarMe++:人脸形状和BRDF推断与真实感渲染软件GANs.Trans.Pattern Anal.Mach.Intell.(PAMI)(2021)”,“doi”:“10.1109\/TPAMI.2021.3125598”},{“key”:“15-CR46”,“非结构化”:“Li,C.,Morel-Forster,A.,Vetter,T.,Egger,B.,Kortylewski,A.:适合与否:基于模型的面部重建和弱监督下的遮挡分割。CoRR abs \/2106.09614(2021),https:\/\/arxiv.org\/abs\/2106.009614”},{“key”:“15_CR47”,“doi-asserted-by”:“crossref”,“unstructured”:“Li,T.,Bolkart,T.、Black,M.J.、Li,H.、Romero,J.:从4D扫描中学习面部形状和表情模型。Trans.Grap.(Proc.SIGGRAPH Asia)36(6),194:1\u2013194:17(2017.,https:\/\/doi.org\/10.1145\/313080.3130813”,“doi”:“10.1145\/3130800.3130813}”,{“key”:“15_CR48”,“doi-asserted-by”:“crossref”,“unstructured”:“刘,S.,李,T.,陈,W.,李,H.:软光栅化器:基于图像的三维推理的可差分渲染器。In:国际计算机视觉会议,2019年10月”,“DOI”:“10.1109\/ICCV.2019.00780”},{“key”:“15_CR49”,“unstructured”:“Loshchilov,I.,Hutter,F.:修复Adam中的重量衰减正则化。CoRR abs \/1711.05101(2017),https:\/\/arxiv.org\/abs\/1711.05101“},{“key”:“15_CR50”,“doi-asserted-by”:“crossref”,“unstructured”:“Morales,A.,Piella,G.,Sukno,F.M.:基于未校准图像的三维人脸重建调查(2021)”,“doi”:“10.1016\/j.cosrev.2021.00400”},}“key”:Nagano,K.等人:paGAN:使用动态纹理的实时化身。ACM事务处理。图表。37(6) (2018). https:\/\/doi.org\/10.1145\/3272127.3275075“,”doi“:”10.1145\/33272127.3275075“},{“key”:“15_CR52”,“doi-asserted-by”:“crossref”,“unstructured”:“Paysan,P.、Knothe,R.、Amberg,B.、Romdhani,S.、Vetter,T.:用于姿势和光照不变人脸识别的3D人脸模型。收录于:高级视频和信号监控国际会议,第296\u2013301页(2009)“,”DOI“:”10.1109\/AVSS.2009.58“},{”key“:”15_CR53“,”DOI-asserted-by“:”publisher“,”unstructured“:”Phillips,P.等人:人脸识别的重大挑战概述。在:2005年IEEE计算机学会计算机视觉和模式识别会议(CVPR\u201905),第1卷,第947\u2013954页(2005)。https:\/\/doi.org\/10.109\/CVPR.2005.268“,”doi“:”10.1109\/CVPR.2005.268“},{”key“:”15_CR54“,”doi-asserted-by“:”publisher“,”unstructured“:”Ramamoorthi,R.,Hanrahan,P.:辐照度环境地图的有效表示。摘自:《第28届计算机图形与交互技术年会论文集》,SIGGRAPH 2001,第497\u2013500页。美国纽约州纽约市计算机协会(2001年)。https:\/\/doi.org\/10.1145\/383259.383317“,”doi“:”10.1145\/338259.38331“},{“key”:“15_CR55”,“unstructured”:“Ravi,N.,et al.:使用pytorch3d.arXiv:2007.08501(2020)“}加速3D深度学习,{”key“:”15_CR56“,”doi-asserted-by“:”publisher“,”unstructure“:”Richardson,E.,Sela,M.,Kimmel,R.:通过从合成数据中学习进行三维人脸重建(2016)。https:\/\/doi.org\/10.48550\/ARXIV.1609.04387,https:\//ARXIV.org\/abs\/1609.04387“,”doi“:”10.48550\/ARXV.1609.043“}“,{”key“:”15_CR57“,”doi-asserted-by“:”crossref“,”unstructured“:”Richardson,E.,Sela,M.,Or-El,R.,Kimmel,R.:从单个图像学习详细的面部重建。2017 IEEE计算机视觉和模式识别会议(CVPR)(2017)“,“DOI”:“10.1109\/CVPR.2017.589”},{“key”:“15_CR58”,“DOI-asserted-by”:“crossref”,“unstructured”:“Saito,S.,Wei,L.,Hudoi-asserted-by“:”crossref“,”unstructured“:”Sanyal,S.,Bolkart,T.,Feng,H.,Black,M.:学习在没有三维监督的情况下从图像中回归3D人脸形状和表情。In:Conference on Computer Vision and Pattern Recognition(CVPR)(2019)”,“DOI”:“10.1109\/CVPR.2019.00795”},{“key”:“15_CR60”,“DOI-asserted-by”:“publisher”,“unstructured”:“Schroff,F.,Kalenichenko,D.,Philbin,J.:FaceNet:人脸识别和聚类的统一嵌入。2015年IEEE计算机视觉和模式识别会议(CVPR),2015年6月。https:\/\/doi.org\/10.109\/cvpr.2015.7298682“,”doi“:”10.1109\/cvrpr.2015.7298682“},{“key”:“15_CR61”,“doi-asserted-by”:“publisher”,“unstructured”:“Serengil,S.I.,Ozpinar,A.:超扩展光照:面部属性分析框架。收录:2021年国际工程与新兴技术会议(ICEET),第1\u20134页。IEEE(2021)。https:\/\/doi.org\/10.109\/ICEET53442.2021.9659697“,”doi“:”10.1109\/ICEET 53442.20.22.1965997“},{“key”:“15_CR62”,“series-title”:“计算机科学讲义”,“doi-asserted-by”:“publisher”,“first page”:”53“,”DI:“10.1007\/978-3-030-58555-6_4”,“volume-title”:”Computer Vision\u2013 ECCV 2020“,”author“J Shang”,“年份”:“2020年”,“非结构化”:“Shang,J.等:通过闭塞软件多视图几何一致性进行自我监督的单目3D人脸重建。收录人:Vedaldi,A.、Bischof,H.、Brox,T.、Frahm,J.-M.(编辑)ECCV 2020。LNCS,第12360卷,第53\u201370页。查姆施普林格(2020)。https:\/\/doi.org\/10.1007\/978-3-030-58555-6_4“},{“key”:“15_CR63”,“doi-asserted-by”:“crossref”,“unstructured”:“Tewari,A.,et al.:FML:从视频中学习人脸模型。摘自:IEEE计算机视觉和模式识别会议论文集,第10812\u201310822(2019)页”,“doi”:“10.1109\/CVPR.2019.01107”},},“key“:”15_CR64“,”doi-asserted-by“:”crossref“,”unstructured“:”Tewari,A.等人:在250 hz以上的单目重建中,自我监督的多层人脸模型学习。收录于:IEEE计算机视觉与模式识别会议(2018)”,“DOI”:“10.1109\/CVPR.2018.00270”},{“key”:“15_CR65”,“DOI-asserted-by”:“crossref”,“unstructured”:“Tewari,A.等人:MoFA:基于模型的深度卷积人脸自动编码器,用于无监督单目重建。摘自:IEEE国际计算机视觉会议(ICCV)(2017)“,”DOI“:”10.1109\/ICCV.2017.401“},{“key”:“15_CR66”,“DOI-asserted-by”:“crossref”,“unstructured”:“Thies,J.,Zollh\u00f6fer,M.,Stamminger,M.、Theobalt,C.,Nie_00dfner,M.:Facevr:虚拟现实中的实时凝视软件面部再现。ACM Trans.Graph.37(2018)”,“DOI”:“10.1145\/3182644“},{“key”:“15_CR67”,“series-title”:“计算机科学课堂讲稿”,“doi-asserted-by”:“publisher”,“首页”:“716”,“doi”:“10.1007\/978-3-030-58517-4_42”,“volume-title”:《计算机视觉\u2013 ECCV 2020》,“author”:“J Thies”,“year”:“2020”,“unstructured”:“Thies,J.、Elgharib,M.、Tewari,A.、Theobalt,C.、Nie\u00dfner,M.:神经语音木偶:音频驱动的面部再现。收录人:Vedaldi,A.、Bischof,H.、Brox,T.、Frahm,J.-M.(编辑)ECCV 2020。LNCS,第12361卷,第716\u2013731页。查姆施普林格(2020)。https:\/\/doi.org\/10.1007\/978-3-030-58517-4_42“},{“问题”:“4”,“密钥”:“15_CR68”,“doi-asserted-by”:“出版商”,“首页”:“1”,“doi”:“10.1145\/3306346.3323035”,“卷”:“38”,“作者”:“J Thies”,“年份”:“2019”,“非结构化”:“Thies,J.,Zollh\u00f6fer,M.,Nie\u00dfner,M.:延迟神经渲染:使用神经纹理的图像合成。事务处理。图表。38(4),1\u201312(2019)“,“新闻标题”:“翻译。图表。“},{”key“:”15_CR69“,”doi-asserted-by“:”crossref“,”unstructured“:”Thies,J.,Zollh\u00f6fer,M.,Nie\u00dfner,M.、Valgaerts,L.,Stamminger,M.和Theobalt,C.:面部再现的实时表情传输。Trans.Graph.34(6)(2015)“,”doi“:”10.1145\/2816795.2818056“}”,{“key”:“15_CR70”,“doi-assert-by”:“crossref.“,”非结构化“:”Thies,J.、Zollh\u00f6fer,M.、Stamminger,M.,Theobalt,C.、Nie\u00dfner,M.:Face2Face:实时人脸捕获和RGB视频的重新制作。收录于:计算机视觉和模式识别会议(CVPR),第2387\u20132395页(2016)“,“DOI”:“10.1109\/CVPR.2016.262”},{“key”:“15_CR71”,“DOI-asserted-by”:“crossref”,“unstructured”:“Thies,J.,Zollh\u00f6fer,M.,Theobalt,C.,Stamminger,M.和Niessner,M.:Headon:实时重新制作人像视频。ACM Transa.Graph。37(4),1\u201313(2018)10.1145\/3197517.3201350,https:\/\/dx.doi.org\/10.1145\/3199517.320135“,”doi“:”10.1145\/3197517.3201340“},{“key”:“15_CR72”,“doi-asserted-by”:“crossref”,“unstructured”:“Tran,A.T.,Hassner,T.,Masi,I.,Medioni,G.:用非常深入的神经网络回归健壮且有辨别力的3D可变形模型。在:《IEEE计算机视觉与模式识别会议记录》(CVPR),第1599\u20131608页(2017),“DOI”:“10.1109\/CVPR.2017.163”},{“key”:“15_CR73”,“DOI断言”:“crossref”,“非结构化”:“Tran,A.T.、Hassner,T.、Masi,I.、Paz,E.、Nirkin,Y.、Medioni,G.:极限3D人脸重建:透视遮挡。In:Conference on Computer Vision and Pattern Recognition(CVPR)(2018)”,“DOI”:“10.1109\/CVPR.2018.00414”},{“key”:“15_CR74”,“DOI-asserted-by”:“crossref”,“unstructured”:“Tran,L.,Liu,F.,Liw,X.:朝向高保真非线性3D人脸变形模型。In:In Proceeding of IEEE Computer Visual and Patterm Recognition.Long Beach,CA,2019年6月”DOI“:”10.1109\/CVPR.2019.00122“},{“key”:“15_CR75”,“unstructured”:“Tu,X.,et al.:通过2D辅助的自我监督学习从单个图像进行联合3D人脸重建和密集人脸对齐。arXiv预印本arXiv:1903.09359(2019)”},},“key“:”15_CR76“,“unsructured“:”Wei,H.,Liang,S.,Wei,Y.:通过图卷积网络进行三维密集面部对齐(2019)“},{“key”:“15_CR77”,“doi-asserted-by”:“crossref”,“unstructured”:“Weise,T.,Bouaziz,S.、Li,H.、Pauly,M.:实时基于性能的面部动画。In:Trans.graph.30(2011)”,“doi”:“10.1145\/2010324.1964972”}crossref“,”unstructured“:”Weise,T.,Li,H.,Gool,L.J.V.,Pauly,M.:变脸:真人面部木偶。摘自:SIGGRAPH\/欧洲制图计算机动画研讨会(SCA),第7页\u201316(2009)“,”DOI“:”10.1145\/1599470.1599472“},{“key”:“15_CR79”,“DOI-asserted-by”:“publisher”,“unstructured”:“Yamaguchi,S.,et al.:从无约束图像中进行高精度面部反射和几何推断。ACM Trans.Graph.37(4)(2018).https:\/\/doi.org\/10.1145\/3197517.3201364,https:\/\.doi.org\/10.1145\/3197512764“,”doi“:”10.1145\/3199517.320364“},{“key”:“15_CR80”,“doi-asserted-by”:“crossref”,“unstructured”:“Yang,H.、Zhu,H.,Wang,Y.、Huang,M.、Shen,Q.、Yang,R.、Cao,X.:FaceScape:大规模高质量三维人脸数据集和详细的精确三维人脸预测。收录于:IEEE\/CVF计算机视觉和模式识别会议(CVPR),2020年6月”,“DOI”:“10.1109\/CVPR42600.2020.00068”},{“key”:“15_CR81”,“DOI-asserted-by”:“publisher”,“unstructured”:“Yin,L.,Wei,X.,Sun,Y.,Wang,J.,Rosato,M.:面部行为研究的三维面部表情数据库。摘自:第七届自动人脸和手势识别国际会议(FGR06),第211\u2013216页(2006)。https:\/\/doi.org\/10.109\/FGR.2006.6“,”doi“:”10.1109\/FGR/2006.6“},{”key“:”15_CR82“,”doi-asserted-by“:”publisher“,”unstructured“:”Zhang等:人类行为分析的多模自发情绪语料库。In:2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),pp.3438\u20133446(2016).https:\/\/doi.org\/10.109\/CVPR.2016.374“,”doi“:”10.1109\/CVPR.2016.374“},{“key”:“15_CR83”,“unstructured”:“Zhu,H.,et al.:FacesCape:三维人脸数据集和单视图三维人脸重建基准。arXiv预打印arXiv:2111.01082(2021)“}朱,X,雷,Z,刘,X,石,H,李,S,Z:大型姿势的面部对齐:3D解决方案。参加:计算机视觉和模式识别会议(CVPR)。第146\u2013155页。IEEE计算机学会,美国加利福尼亚州洛斯阿拉米托斯,2016年6月。https:\/\/doi.org\/10.109\/CVPR.2016.23,https:\//doi.ieeecomputersociety.org\/10.1109\/CVPR.2016.23“,“doi”:“10.1109\/CVPR.2016.23”},{“key”:“15_CR85”,“doi-asserted-by”:“crossref”,“unstructured”:“Zollh\u00f6fer,M.等人:单目3D人脸重建、跟踪和应用的最新技术。计算。图表。Forum(Eurographics State of the Art Reports)37(2)(2018)“,”DOI“:”10.1111\/cgf.13382“}],”container-title“:[”计算机科学讲义“,”Computer Vision\u2013 ECCV 2022“],”original-title”:[],”link“:[{”URL“https:\/\/link.springer.com\/content\/pdf\/10007\/978-3-031-19778-9_15“,”content-type“:”unspecified“,”content-version“:”vor“,”intended-application“:”similarity-checking“}],”deposed“:{”date-parts“:[2022,11,2],”date-time“:”2022-11-02T20:55:21Z“,”timestamp“:1667422521000},”score“:1,”resource“:{primary”:{“URL”:“https:\/\/link.springer.com\/10007\/978-3031-19778-9_15”}},“subtitle”:[],“shorttitle”:[],“issued”:{“date-part”:[[2022]]},“ISBN”:[“9783031197772”,“9783031197789“],”引用计数“:85,”URL“:”http://\/dx.doi.org\/10.1007\/978-3-031-19778-9_15“,”关系“:{},”ISSN“:[”0302-9743“,”1611-3349“],“ISSN-type”:[{“value”:“0302-974”,”type“:”print“},{“value”:“1611-3399”,”类型“:”electronic“}],”subject“:[],”published“:{”date-pa rts“:[[2022]]},”断言“:[{“value”:“2022年11月3日”,“order”:1,“name”:“first_online,“label”:“first online”,“group”:{“name”:“ChapterHistory”,“label:”Chapter History“}},{“value”:“ECCV”,“order”:1,“name”:“conference_acrombit”,“table”:“conference_Acrombitor”,“group”:“{”name“:”ConferenceInfo“,”label“:”会议信息“}}}”,{”value“:”欧洲计算机视觉会议“,”order“:2,”name“conference_name”,“标签”:“会议名称“,”组“:{“Name”:“ConferenceInfo”,“label”:“conferenceInformation”}},{“value”:“Tel Aviv”,“order”:3,“Name”:“Conference_city”,“标签”:“会议城市”,“group”:ConferenceInfo“,”label“:”ConferenceInformation“}},{”value“:”2022“,”order“:5,”name“:”Conference_year“,”标签“:”会议年份“,”group“:会议信息“}},{“value”:“2022年10月27日”,“order”:8,“name”:“Conference_end_date”,“label”:“Conference end date”,“group”:{“名称”:“会议信息”,“标签”:“会务信息”}}、{“值”:“17”,“订单”:9、“name”:“Conference_number”、“label“:”会议编号“,”group“:{”name“:“”eccv2022”,“order”:10,“name”:“conference_id”,“label”:“会议id”,“group”:{“name”:“ConferenceInfo”,“label”:“会议信息”}},{“value”:“https://eccv2022.ecva.net\/”,“order”:11,“name”:“conferenceurl”,“label”:“会议url”,“group”:{“name”:“ConferenceInfo”,“label”:“会议信息”}},{“value”:“双盲”,“order”:1,“名称”:“type“,”label“:”type“,”group“:”{“name”:“ConfEventPeerReviewInformation”,“label”:“Peer Review Information(由会议组织者提供同行评审信息(由会议组织者提供)“}},{“value”:“5804”,“order”:3,“name”:“number_of_submissions_sent_for_Review”,“label”:“发送供评审的提交数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“table”:“同行评审信息”(由会议主办方提供)number_of_full_papers_accepted“,”label“:”接受的全文数“,”group“:{”name“:”ConfEventPeerReviewInformation“,”标签“:”同行评审信息(由会议组织者提供)“}},{”value“:”0“,”order“:5,”name“:”number_ of_short_papers_Accepteded“,”table“:”已接受的短文数“,“group”:{“name”:“”ConfEventPeerReviewInformation“,”label“:”同行评审信息(由会议组织者提供)“}},{”value“:”28%-该值由等式“接受的全文数”/“发送供评审的提交数*100”计算,然后四舍五入为整数。“,”order“:6,”name“:”acceptance_rate_of_Full_Papers“,”标签“:”全文接受率“,”group“:{”name“:”ConfEventPeerReviewInformation“,”label“:”Peer Review Information(由会议组织者提供)“}},{”value“:”3.21“,”order“:7,”name“:”average_number_of_reviews_per_paper“,”标签“:”每篇论文的平均评论数“,”google“:同行评议信息(由会议组织者提供)“}},{“value”:“3.91”,“order”:8,“name”:“average_number_of_papers_per_reviewer”,“label”:“每个审阅者的平均论文数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“tabel”:”同行评议资讯(由会议组织方提供)“{}}”,{(value):“Yes”,“订单”:9,“name“:”external_reviewers_involved“,”label“:”涉及外部审阅者“,”group“:{”name“:”ConfEventPeerReviewInformation“,”标签“:”同行审阅信息(由会议组织者提供)“}}]}}