{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{-“日期-部件”:[[2024,9,19]],“日期-时间”:“2024-09-19T16:30:02Z”,“时间戳”:1726763402255},“引用-计数”:95,“出版商”:“Springer Science and Business Media LLC”,“问题”:“8”,“许可证”:[{“开始”:{-date-parts“:[2023,5,28]],”日期-时间“:“2023-05-28T00:00:00Z”,“timestamp”:1685232000000},“content-version”:“tdm”,“delay-in-days”:0,“URL”:“https:\/\/creativecommons.org\/licenses\/by\/4.0”},{“start”:{“date-parts”:[[2023,5,28]],“date-time”:“2023-05-28T00:00:00Z”,“timetamp”:685232000000neneneep,“content-version”:“vor”,“delay-in-days”:“0,”URL“https:\\/creative commons.org\/licenses\/by\/4.0“}],“出资人”:[{“DOI”:“10.13039\/501000001775”,“name”:“悉尼理工大学”,“doi-asserted-by”:“crossref”,“id”:[{“id”:“10.13029\/5010001775”、“id-type”:“doi”,“asserted-by”:“crassref”}]}],“content-domain”:{“domain”:[“link.springer.com”],“crossmark-restriction”:false},“short-container-title”:[“Int J Compute-Vis”],”published-pre Int“:{“日期部分”:[[2023,8]]},“摘要”:“摘要<\/jats:title>本文研究了用于单目标和多目标场景的合成3D-ware图像合成。我们观察到,该领域仍然存在两个挑战:现有的方法(1)缺乏几何约束,从而影响单个对象的多视图一致性,以及(2)无法扩展到具有复杂背景的多对象场景。为了一致地解决这些挑战,我们提出了用于合成3D软件图像合成的多视图一致生成对抗网络(MVCGAN)。首先,我们利用底层的3D信息在单个对象上构建几何约束。具体来说,我们加强了视图对之间的光度一致性,鼓励模型学习固有的3D形状。其次,我们将MVCGAN应用于多对象场景。特别是,我们将多对象场景生成表示为一个\u201d分解和合成\u201c过程。在训练过程中,我们采用自顶向下的策略将训练图像分解为对象和背景。渲染时,通过将生成的对象和背景合成到整体场景中,我们部署了一种反向自下而上的方式。在单目标和多目标数据集上的大量实验表明,该方法在三维软件图像合成中取得了具有竞争力的性能<\/jats:p>“,”DOI“:”10.1007\/s11263-023-01805-x“,”type“:”journal-article“,”created“:{”date-parts“:[[2023,5,28]],”date-time“:”2023-05-28T06:01:52Z“,”timestamp“:1685253712000},”page“:nced-by-count“:2,”标题“:[”用于合成3D-软件图像合成的多视图一致生成对抗网络“],”前缀“:”10.1007“,”卷“:”131“,“作者”:[{“ORCID”:“http://\/ORCID.org\/0000-0002-6939-4074”,“authenticated-ORCID”:false,“given”:”玄蒙“,”family“:”Zhang“,”sequence“:”first“,”affiliation“:[]},{“givent”:“浙东”,“family”:“Zheng”,“sequence”:“”附加“,”从属“:[]},{“给定”:“大恒”,“家族”:“高”,“序列”:“附加”,“从属”:[]{,{”给定“:”邦“,”家族“:”张“,”序列“:”附加“,“从属关系”:[]},}“给定“:从属关系“:[]}],”成员“:”297“,”在线发布“:{“date-parts”:[[2023,5,28]]},“reference”:[{“key”:“1805_CR1”,“unstructured”:“(2021)动态单目视频的动态视图合成。在ICCV(第5712\u20135721页)中。”},{“key”:”1805_CR2“,“unsructured“:”Alhaija,HA,Mustikovela,S.K.,Geiger,A.,&Rother,C.(2018)。几何图像合成。在ACCV中(第85\u2013100页)。“},”key“:”1805_CR3“,”doi-asserted-by“:”crossref“,”unstructured“:”Andrew,A.M.(2001)。计算机视觉中的多视图几何。凯伯内特斯。“,”DOI“:”10.1108\/k.2001.30.9_10.1333.2“},{”key“:”1805_CR4“,”DOI-asserted-by“:”crossref“,”unstructured“:”Anokhin,I.,Demochkin,k.,Khakhulin,T.,Sterkin,G.,Lempitsky,V.,&Korzhenkov,D.(2021)条件相关像素合成的图像生成器。CVPR(pp.14278\u201314287)。“,”DOI“:“10.1109\/CVPR467.2021.01405”},}“密钥”:“1805_CR5“,“非结构化”:“Brock,A.,Donahue,J.,&Simonyan,K.(2018)。用于高保真自然图像合成的大规模gan训练。在ICLR中。“},{”key“:”1805_CR6“,”unstructured“:”Burgess,C.,&Kim,H.(2018)3d shapes dataset“。},”key”:“1805_CR 7”,“doi-asserted-by”:“crossref”,“unstructure”:“Chan,E.R.,Lin,C.Z.,Chan,M.A.,Nagano,K.,Pan,B.,De\u00a0Mello,S.,Gallo,O.,Guibas,L.J.,Tremblay,J.,Khamis.S,et\u00a 0al.(2022)高效的几何感知三维生成对抗性网络。CVPR(第16123\u201316133页)。“,”DOI“:”10.1109\/CVPR52688.2022.01565“},{”key“:”1805_CR8“,”DOI-asserted-by“:”crossref“,”unstructured“:”Chan,E.R.,Monteiro,M.,Kellnhofer,P.,Wu,J.,&Wetzstein,G.(2021)。pi-gan:三维感知图像合成的周期性隐式生成对抗性网络。CVPR(第5799\u20135809页)。“:”1805_CR9“,“非结构化”:“Chang,A.X.,Funkhouser,T.,Guibas,L.,Hanrahan,P.,Huang,Q.,Li,Z.,Savarese,S.,Savva,M.,Song,S.、Su,H.et \u00a0al。(2015). Shapenet:一个信息丰富的三维模型库。arXiv:1512.03012“},{“key”:“1805_CR10”,“doi-asserted-by”:“crossref”,“unstructured”:“Chen,A.,Xu,Z.,Zhao doi-asserted-by“:”crossref”,“非结构化”:“Chen,S.E.,&Williams,L.(1993)。用于图像合成的视图插值。在计算机图形和交互技术会议上。“,”DOI“:”10.1145\/166117.166153“},{“key”:“1805_CR12”,“DOI-asserted-by”:“crossref”,“unstructured”:“Chibane,J.,Bansal,A.,Lazova,V.,&Pons-Moll,G.(2021)。立体辐射场(srf):学习新场景稀疏视图的视图合成。CVPR(第7911\u20137920页)。”,“DOI”:“10.1109\/CVPR46437.2021.00782”},“{”key“:”1805_C R13英寸doi-asserted-by“:”crossref“,”unstructured“:”Choi,Y.,Choi。,Kim,S.和Choo,J.(2018)。Stargan:用于多域图像到图像转换的统一生成对抗网络。CVPR(第8789\u20138797页)。“,”DOI“:”10.1109\/CVPR.2018.00916“},{“key”:“1805_CR14”,“DOI-asserted-by”:“crossref”,“unstructured”:“Choi,Y.,Uh,Y.、Yoo,J.,&Ha,J.W.(2020)。Stargan v2:多域的多样图像合成。CVPR(第8188\u20138197页)。”,“DOI”:“10.1109\/CVPR42600.2020.00821”},“{”key“:”1805_CR15“,”DOI-assert-b“Y“:”crossref“,”unstructured“:”Collins,R。T.(1996)。一种真正的多图像匹配的空间扫描方法。CVPR(第358\u2013363页)。“,”DOI“:”10.1109\/CVPR.1996.517097“},{”key“:”1805_CR16“,”DOI由“:”crossref“断言,”非结构化“:”Debevec,P.E.,Taylor,C.J.,&Malik,J.(1996)。从照片中建模和渲染架构:一种混合几何和基于图像的方法。在计算机图形学和交互技术会议上(pp.11\u201320)。“,”DOI“:”10.1145\/237170.237191“},{“key”:“1805_CR17”,“doi-asserted-by”:“crossref”,“unstructured”:“Deng,J.,Guo,J.、Xue,N.和Zafeiriou,S.(2019)。Arcface:深度人脸识别的附加角余量损失。收录于CVPR(第4690\u20134699页)。”,“doi”:“10.1109\/CVPR.2019.00482”},“key“:”1805_CR18“,”doi-assert-by“:”crossref.“非结构化”:“”Deng,K.、Liua,A.、Zhu,J.Y.和Ramanan,D.(2022a)。深度监督的神经衰弱:更少的浏览量和更快的免费训练。CVPR(第12882页\u201312891页)。“,”DOI“:”10.1109\/CVPR52688.2022.01254“},{”key“:”1805_CR19“,”DOI-asserted-by“:”crossref“,”unstructured“:”Deng,Y.,Yang,J.,Chen,D.,Wen,F.,&Tong,X.(2020)。通过三维模拟控制学习生成不纠缠且可控的人脸图像。在CVPR(pp.5154\u20135163)中。,“doi-asserted-by“:”crossref“,”unstructured“:”Deng,Y.,Yang,J.,X.,X.(2022b)。Gram:用于生成三维感知图像的生成辐射流形。CVPR(第10673\u201310683页)。“,”DOI“:”10.1109\/CVPR52688.2022.01041“},{“key”:“1805_CR21”,“DOI-asserted-by”:“crossref”,“unstructured”:“DeVries,T.,Bautista,M.A.,Srivastava,N.,Taylor,G.W.,&Susskind,J.M.(2021)。局部条件辐射场的无约束场景生成。在ICCV(第14304\u201314313页)中。”,“DOI”:“10.1109\/ICCV48922.2021.01404”},“{”key“:“”1805_CR22“,“非结构化”:“Dumoulin,V.,Shlens,J.,&Kudlur,M.(2020)。艺术风格的博学表现。“},{”issue“:”4“,”key“:”1805_CR23“,”doi-asserted-by“:”publisher“,”first-page“:”1“,”doi“:”10.1145\/3450626.3459936“,”volume“:“40”,“author”:“Y Feng”,“year”:“2021”,“unstructured”:“Feng,Y.,Feng,H.,Black,M.J.,&Bolkart,T.(2021)。从野生图像中学习可动画化的详细三维人脸模型。ACM图形事务(TOG),40(4),1\u201313.“,”journal-title“:”ACM Transactions on Graphics(TOG)“},{“key”:“1805_CR24”,“doi-asserted-by”:“crossref”,“unstructured”:“Garbin,S.J.,Kowalski,M.,Johnson,M.、Shotton,J.和Valentin,J.(2021)。Fastnerf:200fps下的高精度神经呈现。在ICCV(第14346\u201314355页)中。”,“doi”:“10.1109”,ICCV48922.2021.01408“}”,{键“:”1805_CR25“,“非结构化”:“Girdhar,R.和Ramanan,D.(2019)。Cater:用于合成动作和时间推理的诊断数据集。在ICLR中。“},{”key“:”1805_CR26“,”doi-asserted-by“:”crossref“,”unstructured“:”Godard,C.,Mac\u00a0Aodha,O.,Firman,M.,&Brostow,G.J.(2019)。挖掘自监督单目深度估计。在ICCV.中,“doi”:“10.1109\/ICCV.2019.00393”},“issue”:“11”,“key”:“1805_CR2”,“doi-assert-by”:“publisher”,“first page”:”139“,“doi”:“10.1145\/3422622”,“卷:“63”,“作者”:“我是古德费罗”,“年份”:“2020年”,“非结构化”:“古德费勒,I.,Pouget-Abadie,J.,Mirza,M.,Xu,B.,Warde-Farley,D.,Ozair,S.,Courville,A.,&Bengio,Y.(2020)。生成性对抗网络。《ACM的通信》,63(11),139\u2013144。“,“journal-title”:“ACM的通讯”},{“key”:“1805_CR28”,“unstructured”:“Gu,J.,Liu,L.,Wang,P.,&Theobalt,C.(2022)。Stylenerf:用于高分辨率图像合成的基于样式的3d感知生成器。在ICLR中Henderson,P.、Tsiminaki,V.和Lampert,C.H.(2020)。利用二维数据学习纹理三维网格生成。CVPR(第7498\u20137507页)。“,”DOI“:”10.1109\/CVPR42600.2020.00752“},{”key“:”1805_CR30“,”unstructured“:”Heusel,M.,Ramsauer,H.,Unterthiner,T.,Nessler,B.,&Hochreiter,S.(2017)。通过双时间尺度更新规则训练的Gans收敛到局部nash均衡。神经信息处理系统进展,30“}非结构化”:“Huang,X.,&Belongie,S.(2017)。具有自适应实例规范化的实时任意样式传输。ICCV(第1501\u20131510页)。“,”DOI“:”10.1109\/ICCV.2017.167“},{“key”:“1805_CR32”,“DOI-asserted-by”:“crossref”,“unstructured”:“Jeong,Y.,Ahn,S.,Choy,C.,Anandkumar,A.,Cho,M.,&Park,J.(2021)自校准神经辐射场。在ICCV中(第5846\u20135854页)。”,“DOI”:“10.1109\/ICCV48922.2021.00579”},“{”key“:”1805_CR13“,“DOI-asserted-by”:“crossref”,“非结构化”:“Johnson,J.、Hariharan,B.、Van Der \u00a0Maaten,L.、Fei-Fei,L.,Lawrence \u00a 0Zitnick,C.和Girshick,R.(2017)Clevr:合成语言和基本视觉推理的诊断数据集。CVPR(第2901页\u20132910页)。“,”DOI“:”10.1109\/CVPR.2017.215“},{”key“:”1805_CR34“,”unstructured“:”Kabra,R.,Burgess,C.,Matthey,L.,Kaufman,R.L.,Greff,K.,Reynolds,M.,&Lerchner,A.(2019).多对象数据集。“}”,{“key”:“1805_CR 35”,“unstructure”:“Karras,T.,Aila,T.、Laine,S.,&Lahtinen,J.(2018)逐渐生长的gans提高了质量、稳定性和变异性。在ICLR中。“},{”key“:”1805_CR36“,”unstructured“:”Karras,T.、Aittala,M.、Laine,S.、H\u00e4rk\u00f6nen,E.、Hellsten,J.、Lehtinen,J.,Aila,T.(2021)。无别名生成对抗网络。在NeurIPS中。用于生成性对抗网络的基于样式的生成器体系结构。CVPR(第4401\u20134410页)。“,”DOI“:”10.1109\/CVPR.2019.00453“},{“key”:“1805_CR38”,“DOI-asserted-by”:“crossref”,“unstructured”:“Karras,T.,Laine,S.,Aittala,M.,Hellsten,J.,Lehtinen,J.和Aila,T.(2020)。分析和改善样式的图像质量。CVPR(第8110\u20138119页)。”,“DOI”:“10.1109\/CVPR42600.2020.00813”},“{”key“:”1805 _CR39“,”非结构化“:”Kingma,D.P.,&Ba,J.(2015)《亚当:随机优化方法》。在ICLR中。“},{”key“:”1805_CR40“,”unstructured“:”Li,T.,Slavcheva,M.,Zollhoefer,M.、Green,S.、Lassner,C.、Kim,C.、Schmidt,T,Lovegrove,S.,Goesel,M.和Lv,Z.(2021a Wang,O.(2021b)用于动态场景的时空视图合成的神经场景流场。《IEEE计算机视觉和模式识别会议论文集》(第6498页)。“,”DOI“:”10.1109\/CVPR46437.2021.00643“},{”key“:”1805_CR42“,”DOI-asserted-by“:”crossref“,”unstructured“:”Liao,Y.,Schwarz,K.,Mescheder,L.,&Geiger,A.(2020)。面向三维可控图像合成生成模型的无监督学习。CVPR(pp.5871\u20135880)。“,”DOI“:,“doi-asserted-by“:”crossref“,”unstructured“:”Lin,C.H.,Ma,W.C.,Torralba,A.,Lucey,S.(2021)。Barf:束调整神经辐射场。ICCV(第5741\u20135751页)。“,”DOI“:”10.1109\/ICCV48922.2021.00569“},{”key“:”1805_CR44“,”unstructured“:”Lin,C.Z.,Lindell,D.B.,Chan,E.R.,&Wetzstein,G.(2022).可控肖像图像动画的三维gan反转.arXiv:2203.13441“}”,{“key”:“1805_CR 45”,“DOI-asserted-by”:“crossref”,“unstructure”:“Lindell、D.B.,Martel,J.N.,&wetzsten,G.”(2021)。Autoint:用于快速神经体积绘制的自动集成。CVPR(第14556\u201314565页)。“,”DOI“:”10.1109\/CVPR46437.2021.01432“},{”key“:”1805_CR46“,”DOI-asserted-by“:”crossref“,”unstructured“:”Liu,Y.,Peng,S.,Liu,L.,Wang,Q.,Wang:“4”,“键”:1805_CR47“,”doi-asserted-by“:”publisher“,”first page“:”163“,“doi”:“10.1145\/37402.37422”,“volume”:“21”,“author”:“WE Lorensen”,“year”:“1987”,“unstructured”:“洛伦森,W.E.,&Cline,H.E.(1987)。行进立方体:一种高分辨率三维曲面构造算法。ACM Siggraph Computer Graphics,21(4),163\u2013169.“,“journal-title”:“ACM Sig graph Computer Graphics”},{“key”:“1805_CR48”,“doi-asserted-by”:“crossref”,“unstructured”:“Lyu,X.,Liu,L.,Wang,M.,Kong,X10.1609 \/aaai.v35i3.16329“},{“key”:“1805_CR49”,“unstructured”:“Matthey,L.,Higgins,I.,Hassabis,D.,&Lerchner,A.(2017)。dsprites:解纠缠测试sprites数据集。”},“key“:”1805_CR50“,“doi-asserted-by”:“crossref”,“非结构化”:“Meng,Q.,Chen,A.,Luo,H.,Wu,M.,Su,HGnerf:基于Gan的神经辐射场,无需摆拍相机。ICCV(第6351页\u20136361页)。“,”DOI“:”10.1109\/ICCV48922.2021.00629“},{”key“:”1805_CR51“,”unstructured“:”Mescheder,L.,Geiger,A.,&Nowozin,S.(2018)。针对组织的哪些训练方法实际上是收敛的?在ICML(pp.3481\u20133490)中。“}”,{“key”:“1805_CR52”,“DOI-asserted-by”:“crossref”,“unstructure”:“Mildenhall,B.,Srinivasan,P.,Tancik,M.,Barron,J。T.、Ramamorthi,R.和Ng,R.(2020)。Nerf:将场景表示为用于视图合成的神经辐射场。ECCV(第405\u2013421页)。斯普林格。“,”DOI“:”10.1007\/978-3-030-58452-8_24“},{”issue“:”5“,”key“:”1805_CR53“,”DOI-asserted-by“:”publisher“,”first page“:“1147”,”DOI:“10.1109\/TRO.2015.2463671”,“volume”:“31”,“author”:“R Mur-Artal”,“year”:“2015”,“unstructured”:“Mur-Artall,R.,Montiel,J.M.,&Tardos,J.D.(2015)Orb slam:一种多功能、精确的单眼猛击系统。IEEE Transactions on Robotics,31(5),1147\u20131163。“,“journal-title”:“IEEE Translations on Robotic”},{“key”:“1805_CR54”,“doi-asserted-by”:“crossref”,“unstructured”:“Nguyen-Phuoc,T.,Li,C.,Theis,L.,Richardt,C.和Yang,Y.L.(2019)。Hologan:无监督学习自然图像的三维表示。CVPR(第7588\u20137597页)。”,“DOI“:”10.1109\/ICCV.2019.00768“},{“key”:“1805_CR55”,“首页”:“6767”,“卷”:“33”,“作者”:“TH Nguyen-Phuoc”,“年份”:“2020”,“非结构化”:“Nguyen-Phuoc,T.H.,Richardt,C.,Mai,L.,Yang,Y.,&Mitra,N.(2020)Blockgan:从未标记的图像学习三维对象软件场景表示。神经信息处理系统进展,33,6767\u20136778。”,“日记标题”:“神经信息处理体系进展”},{“key”:“1805_CR56”,“doi-asserted-by”:“crossref”,“unstructured”:“Niemeyer,M.,&Geiger,A.(2021)。长颈鹿:将场景表示为合成生成的神经特征场。CVPR(第11453\u201311464页).“,”DOI“:”10.1109\/CVPR46437.2021.01129“},{“key”:“1805_CR57”,“DOI-asserted-by”:“crossref”,“unstructured”:“Or-El R.,Luo,X.,Shan,M.,Shechtman,E.,Park,J.J.,&Kemelmacher-Shlizerman,I.(2022)。Stylesdf:高分辨率3d一致图像和几何生成。CVPR(第13503\u201313513页)。”,“DOI”:“10.1109\/CVPR52688.2022.01314”},{“key“:”1805_CR58“,”unstructured“:”Pan,X,Xu,X,Loy,C.C.,Theobalt,C.,&Dai,B.(2021)。一种阴影引导的生成隐式模型,用于形状精确的三维感知图像合成。在NeurIPS中。“},{”key“:”1805_CR59“,”doi-asserted-by“:”crossref“,”unstructured“:”Peng,S.,Zhang,Y.,Xu,Y.、Wang,Q.,Shuai,Q.、Bao,H.和Zhou,X.(2021)。神经体:用结构化潜在代码的隐式神经表征用于动态人类的新视点合成。CVPR(第9054\u20139063页)。“,”doi“:”10.1109\/CVPR46437.2021.00894“}”,{“key”:“”1805_CR60“,”doi-asserted-by“:”crossref“,”unstructured“:”Pillai,S.,Ambru\u015f,R.,&Gaidon,A.(2019)。超深度:自监督、超分辨率单目深度估计。ICRA(第9250\u20139256页)。“,”DOI“:”10.1109\/ICRA.2019.8793621“},{“key”:“1805_CR61”,“DOI-asserted-by”:“crossref”,“unstructured”:“Rebain,D.,Jiang,W.,Yazdani,S.,Li,K.,Yi,K.M.,&Tagliasacci,A.(2021)。Derf:分解辐射场。CVPR(第14153\u201314161页)。”,“DOI”:“10.1109\/CVPR46437.2021.01393”},5_CR62“,”DOI-asserted-by“:”crossref“,”非结构化”:“Reiser,C.、Peng,S.、Liao,Y.和Geiger,A.(2021)。基洛内夫:用数千微升/秒加速神经辐射场。《IEEE计算机视觉国际会议论文集》(第14335\u201314345页)。“,”DOI“:”10.1109\/ICCV48922.2021.01407“},{”key“:”1805_CR63“,”DOI-asserted-by“:”crossref“,”unstructured“:”Schonberger,J.L.,&Frahm,J.M.(2016)。重新审视结构-形式-运动。见CVPR(第4104\u20134113页)。,“作者”:“K Schwarz”,“年份”:“2020年”,“非结构化”:“Schwarz,K.、Liao,Y.、Niemeyer,M.和Geiger,A.(2020)。Graf:用于三维感知图像合成的生成辐射场。神经信息处理系统进展,3320154\u201320166。”,“日记标题”:“神经信息处理体系进展”},{“key”:“1805_CR65”,“unstructured”:“Schwarz,K.,Sauer,A.,Niemeyer,M.,Liao,Y.,&Geiger,A.(2022)。Voxgraf:稀疏体素网格的快速3d感知图像合成。在NeurIPS中。”}doi-asserted-by“:”crossref“,”unstructured“:”Seitz,S.M.,&Dyer,C.R.(1996)。查看变形。在计算机图形和交互技术会议上(第21页\u201330)。“,”DOI“:”10.1145\/237170.237196“},{”key“:”1805_CR67“,”首页“:”7462“,”卷“:”33“,”author“:”V Sitzmann“,”year“:”2020“,”unstructured“:”Sitzman,V.,Martel,J.,Bergman,A.,Lindell,D.,&Wetzstein,G.(2020)具有周期激活函数的隐式神经表示。神经信息处理系统进展,33,7462\u20137473。”,“新闻标题”:“神经信息处理体系进展”},{“key”:“1805_CR68”,“unstructured”:“Skorokhodov,I.,Tulyakov,S.,Wang,Y.,&Wonka,P.(2022)。Epigraf:三维组织的反思训练。在NeurIPS中。”}publisher,“首页”:“45”,“DOI”:“10.1023\/A:1008192912624”,“卷”:“32”,“作者”:“R Szeliski”,“年份”:“1999”,“非结构化”:“Szelisbi,R.,&Golland,P.(1999)。立体匹配与透明度和消光。国际计算机视觉杂志,32(1),45\u201361.“,”Journal-title“:”International Journal of Computer Vision“},{”issue“:”1“,”key“:”1805_CR70“,”doi-asserted-by“:”publisher“,”first-page“:”23“,”doi“:”10.1080\/108651.2004.10487596“,”volume“:“9”,”author“:”A Telea“,”year“:”2004“,”unstructured“:”Telea,A.(2004)一种基于快速行进法的图像修复技术。《图形工具杂志》,9(1),23\u201334.“,”Journal-title“:”Journal of Graphics Tools“},{“key”:“1805_CR71”,“doi-asserted-by”:“crossref”,“unstructured”:“Trevithick,A.,&Yang,B.(2021)。Grf:学习用于三维场景表示和渲染的一般辐射场。In ICCV(pp.15182\u201315192)。”,“doi”:“10.1109\/ICCV48922.2021.01490”},}“key“:”1805_CR72“,”unstructured“:”Wang,Y.,Tao,X.,Qi,X.、Shen,X.和Jia,J.(2018)。基于生成多列卷积神经网络的图像修复。神经信息处理系统进展,31.“},{”issue“:“4”,”key“:“1805_CR73”,”doi-asserted-by“:”publisher“,”first page“:”600“,”doi“:”10.1109\/TIP.2003.819861“,”volume“:‘13’,”author“:”Z Wang“,”year“:”2004“,”unstructured“:”Wang,Z.,Bovik,A.C.,Sheikh,H.R.,&Simoncelli,E.P.(2004)图像质量评估:从错误可见性到结构相似性。IEEE Transactions on Image Processing,13(4),600\u2013612.“,“journal-title”:“IEEE Transessions on Image Process”},{“key”:“1805_CR74”,“unstructured”:“Wang,Z.,Wu,S.,Xie,W.,Chen,M.,&Prisacariu,V.A.(2021)。NeRF:没有已知相机参数的神经辐射场。arXiv:21022.07064”}、{“key”:”1805_CR 75“,”doi-asserted-by“:”crossref“,”非结构化”:“Wei,Y.、Liu,S.、Rao,Y.,Zhao,W.、Lu,J.和Zhou,J.(2021)。Nerfingmvs:用于室内多视图立体声的神经辐射场的引导优化。ICCV(第5610\u20135619页)。“,”DOI“:”10.1109\/ICCV48922.2021.00556“},{”key“:”1805_CR76“,”unstructured“:”Wu,Y.,Deng,Y.、Yang,J.,Wei,F.,Chen,Q.,&Tong,X.(2022)。Anifesegan:视频头像的可动画三维人脸图像生成。在NeurIPS中。“}C.(2021年)。自由视点视频的时空神经辐照度场。CVPR(第9421页\u20139431页)。“,”DOI“:”10.1109\/CVPR46437.2021.00930“},{”key“:”1805_CR78“,”unstructured“:”Xiang,J.,Yang“”Xu,X.,Pan,X.、Lin,D.和Dai,B.(2021)。三维表面感知图像合成的生成占用字段。《神经信息处理系统进展》,34,20683\u201320695。“,“journal-title”:“神经信息处理体系进展”},{“key”:“1805_CR80”,“doi-asserted-by”:“crossref”,“unstructured”:“Xu,Y.,Peng,S.,Yang,C.,Shen,Y.和Zhou,B.(2022).通过学习结构和纹理表示进行三维感知图像合成。CVPR(第18430\u201318439页)。“,”DOI“:”10.1109\/CVPR5688.202.01788“},{”key“:”1805_CR81“,”DOI断言者“:”crossref“,”非结构化“:”Yao,Y.,Luo,Z.,Li,S.,Fang,T.,&Quan,L.(2018)。Mvsnet:非结构化多视图立体的深度推断。在ECCV中(pp.767\u2013783)。“,”DOI“:”10.1007\/978-3-030-01237-3_47“},{”key“:”1805_CR82“,”DOI断言者“:”crossref“,”非结构化”:“Yen-Chen,L.、Florence,P.、Barron,J.T.、Rodriguez,A.、Isola,P.和Lin,T.Y.(2021)。inerf:反转神经辐射场以进行姿势估计。IROS(第1323\u20131330页)。“,”DOI“:”10.1109\/IROS51168.2021.9636708“},{”key“:”1805_CR83“,”DOI-asserted-by“:”crossref“,”unstructured“:”Yu,A.,Fridovich-Keil,S.,Tancik,M.,Chen,Q.,Recht,B.,&Kanazawa,A.(2022a)。Plenoxels:无神经网络的辐射场。CVPR(pp.5501\u20135510)。“,”DOI“:“10.1109\/CVPR52688.2022.00542”},“密钥”:“1805_CR84”,“doi-asserted-by“:”crossref“,”unstructured“:”Yu,A.,Li,R.,Tancik,M.、Li,H.,Ng,R.、Kanazawa,A.(2021a)。用于实时渲染神经辐射场的多叉树。在ICCV中(第5752\u20135761页)。“,”DOI“:”10.1109\/ICCV48922.2021.00570“},{”key“:”1805_CR85“,”DOI-asserted-by“:”crossref“,”unstructured“:”Yu,A.,Ye,V.,Tancik,M.,&Kanazawa,A.(2021b).pixelnerf:一幅或几幅图像的神经辐射场.在CVPR(第4578\u20134587页).“,”DOI“:“非结构化”:“Yu,H.X.,Guibas,L。J.、Wu、J.(2022b)。未经监督的对象辐射场发现。“},{”key“:”1805_CR87“,”unstructured“:”Zhang,H.,Cisse,M.,Dauphin,Y.N.,&Lopez-Paz,D.(2018)。mixup:超越经验风险最小化。在ICLR中doi-asserted-by“:”crossref“,”unstructured“:”Zhang,X.,Zheng,Z.,Gao,D.,Zhang and B.,Pan,P.,&Yang,Y.(2022)。用于三维感知图像合成的多视点一致生成对抗网络。CVPR(第18450\u201318459页)。“,”DOI“:”10.1109\/CVPR52688.2022.01790“},{”issue“:”1“,”key“:”1805_CR90“,”DOI-asserted-by“:”publisher“,”first page“:“47”,”DOI:“10.1109\/TCI.2016.2644865”,“volume”:“3”,”author“:”H Zhao“,”year“:”2016“,”unstructured“:”Zhao,H.,Gallo,O.,Frosio,I.,&Kautz,J.(2016).神经网络图像恢复的损失函数。IEEE计算成像学报,3(1),47\u201357.”,“期刊标题”:“IEEE计算图像学报”},{“key”:“1805_CR91”,“doi-asserted-by”:“crossref”,“unstructured”:“郑,Z.,Yang,X.,Yu,Z.、郑,L.,Yang、Y.,&Kautz,J.(2019)联合辨别性和生成性学习用于人的重新识别。CVPR(第2138页\u20132147页)。“,”DOI“:”10.1109\/CVPR.2019.00224“},{“key”:“1805_CR92”,“unstructured”:“Zhou,P.,Xie,L.,Ni,B.,&Tian,Q.(2021)。Cips-3d:基于条件相关像素合成的3d感知gan生成器。arXiv:2110.09788”},“key“:”1805_CR193“,”DOI-asserted-by“:”crossref“,”unstructure“:”Zhow,T.,Brown,M.,Snavely,N.,&Lowe,D.G.(2017)无监督学习视频中的深度和自我意识。CVPR(第1851页\u20131858页)。“,”DOI“:”10.1109\/CVPR.2017.700“},{“key”:“1805_CR94”,“DOI-asserted-by”:“crossref”,“unstructured”:“Zhu,J.Y.,Park,T.,Isola,P.,&Efros,A.A.(2017)。使用循环一致的对抗网络进行未配对的图像到图像转换。在ICCV(pp.2223\u20132232)中。”,“DOI”:“10.1109\/ICCV.2017.244”},“key“:”1805_CR 95“,“unstrained”:“朱,J。Y.,Zhang,C.,Wu,J.,Torralba,A.,Tenenbaum,J.和Freeman,B.(2018)。视觉对象网络:使用分离的三维表示生成图像。神经信息处理系统进展,31.“}],“容器-时间”:[“国际计算机视觉杂志”],“原始标题”:[],“语言”:“en”,“链接”:[{“URL”:“https:\/\/link.springer.com/content\/pdf\/10.1007\/s11263-023-01805-x.pdf”,“内容类型”:“application\/pdf”,“content-version”:“vor”,“intended-application”:“text-mining”},{URL”:“https://link.springer.com\/article\/10.1007\/s11263-023-01805-x\/fulltext.html”,“内容类型”:“text\/html”,“内容版本”:“vor”,“预期应用程序”:“文本挖掘”},{“URL”:“https://link.springer.com\/content/pdf\/10.1007\/s11263-023-01805-x.pdf”,“内容类型”:“应用程序\/pdf”,“内容版本”:“vor”,“预期应用程序”:“相似性检查“}”,“存放”:{“日期-部分”:[[2023,7,17]],“日期-时间”:“2023-07-17T07:15:17Z”,“时间戳”:1689578117000},“分数”:1,“资源”:{“主要”:{“URL”:“https:\\/link.springer.com\/10.1007\/s11263-023-01805-x”},”副标题“:[],”短标题“:[],”已发布“:{”日期-部分“:[2023,5,28]]},“references-count”:95,“journal-issue”:{“issue”:“8”,“published-print“:{“date-parts”:[[2023,8]]}},“alternative-id”:[“1805”],“URL”:“http://\/dx.doi.org\/10.1007\/s11263-023-01805-x”,“relation”:{},”ISSN“:[“0920-5691”,“1573-1405”]、“ISSN-type”:[{“value”:“0920-591”,“type”:“print”},{“value”:“1573-140.5”,“类型”:“”电子“}],”主题“:[],”发布“:{”日期部分“:[[2023,5,28]]},”断言“:[{”值“:”2022年9月10日“,”订单“:1,”名称“:”收到“,”标签“:”接收“,”组“::“首次联机”,“组”:{“name“:”ArticleHistory“,”label“:”文章历史“}}]}}