{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期部分”:[[2024,9,12],“日期时间”:“2024-09-12T01:46:48Z”,“时间戳”:1726105608612},“出版商位置”:“查姆”,“参考计数”:18,“出版者”:“斯普林格国际出版公司”,“isbn-type”:[{“类型”:”打印“,“值”:“9783030638191”},{“type”:“电子”,“value”:“9783030638207”}],“license”:[{“start”:{“date parts”:[[2020,1,1]],“date time”:“2020-01-01T00:00:00Z”,“timestamp”:157783680000},“content version”:“tdm”,“delay in days”:0,“URL”:“http:\/\/wspringer.com\/tdm”},{“start”:{“date parts”:[[2020,1,1]],“date time”:“2020-01-01T00:00:00Z”,“timestamp”:157783680000 6800000},“内容版本”:“vor”,“delay-in-days”:0,“URL”:“http:\/\/www.springer.com\/tdm”},{“start”:{“date-parts”:[[2020,1,1]],“date-time”:“2020-01-01T00:00:00Z”,“timestamp”:1577836800000},“content-version”:“tdm”,“delay-in-days“:0,”URL“https:\/\www.springer.com\/tdm”}1,1]],“日期时间”:“2020-01-01T00:00:00Z”,“时间戳”:1577836800000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“https:\/\/www.springer.com/tdm”}],“content-domain”:{“domain”:[“link.springer.com”],“crossmark-restriction”:false},“short-container-title”:[],“published-print”:{“date-parts”:[2020]]},”DOI“:”10.1007\/978-3-030-63820-7_58“,”类型“book-capter”,“创建“:{“date-parts”:[[2020,11,18]],“date-time”:“2020-11-18T09:12:07Z”,“时间戳”:1605690727000},“页面”:“507-515”,“更新策略”:“http://\/dx.doi.org\/10.1007\/springer_crossmark_policy”,“源”:“Crossref”,”is-referenced-by-count“:3,”title“:[”Pairwise-GAN:通过成对训练进行基于姿势的视图合成“],”prefix“:”10.1007“,”author“:[{”given“Xuyang”,“family”:“申”、“序”:“首”,“affiliation”:[]},{“given”:“Jo”,“family”:“Pleted”,“sequence”:“additional”,“affaliation”(从属关系):[]{“fixed”:“Yue”,“家庭”:“Yao”,“序列”:“extendated”,“从属关系”:[]},}“giving”:“Tom”,“家族”:“Gedeon”,“serquence”:“additionable”,“abfiliance”:[[]}],“member”:“297”,“published on line”:{“date-parts”:[2020,0 11,17]]},“引用”:[{“键”:“58_CR1”,“doi-asserted-by”:“crossref”,“unstructured”:“Jackson,A.S.,Bulat:“publisher”,“first page”:“557”,“DOI”:“10.1007\/978-3-030-01264-9_33”,“volume-title”:“Computer Vision\u2013 ECCV 2018”,“author”:“Y Feng”,“year”:“2018”,”unstructured“:”Feng,Y.,Wu,F.,Shao,X.,Wang,Y.Zhou,X.:使用位置图回归网络进行联合三维人脸重建和密集对齐。收件人:Ferrari,V.,Hebert,M.,Sminchisescu,C.,Weiss,Y.(编辑)Computer Vision\u2013 ECCV 2018。LNCS,第11218卷,第557\u2013574页。查姆施普林格(2018)。https:\/\/doi.org\/10.1007\/978-3-030-01264-9_33“},{“key”:“58_CR3”,“doi-asserted-by”:“crossref”,“unstructured”:“Kan,M.,Shan,S.,Chang,H.,Chen,X.:堆叠渐进式自动编码器(SPAE),用于跨姿势的人脸识别。收录于:CVPR,第1883\u20131890页(2014)”,“doi”:“10.1109\/CVPR.2014.243”},}“key”:“58/CR4”,“doi-asserted”by“:”crossref“,”非结构化“:”Hassner,T.、Harel,S.、Paz,E.、Enbar,R.:无约束图像中的有效人脸正面化。收录于:CVPR,pp.4295\u20134304(2015)“,“DOI”:“10.1109\/CVPR.2015.7299058”},{“key”:“58_CR5”,“DOI-asserted-by”:“crossref”,“unstructured”:“Huang,R.,Zhang,S.,Li,T.,He,R.:Beyond face rotation:global and local perception GAN for photorealistic and identity reservation frontient view synthensive”。收录于ICCV,pp.2439\u20132448(2017)“,”DOI“10.1109\/ICCV.2017.267“},{“key”:“58_CR6”,“doi-asserted-by”:“crossref”,“unstructured”:“Tian,Y.,Peng,X.,Zhao,L.,Zhang,S.,Metaxas,D.N.:CR-GAN:学习多视图生成的完整表示法。arXiv预印本arXiv:1806.11191(2018)”,“doi”:“10.24963\/ijcai.2018\/131”},},“key“:”58_CR7“,”doi-assert-by“:”publisher“,”第一页“:”807”,“DOI”:“10.3390\/electronics8070807”、“volume”:“8”,“author”:“W Zhuang”,“year”:“2019”,“unstructured”:“庄,W.,Chen,L.,Hong,C.,Liang,Y.,Wu,K.:FT-GAN:基于关键点对齐的人脸变换,用于位置不变的人脸识别。Electronics 8,807(2019)“,”journal-title“:”Electronics“},{“key”:“58_CR8”,“doi-asserted-by”:“crossref”,“unstructured”:“Yao,Y.,Zheng,L.,Yang,X.,Naphade,M.,Gedeon,T.:模拟具有属性下降的内容一致性车辆数据集。In:ECCV(2020)“,“doi”:“10.1007\/978-3030-58539-6_46”},“key非结构化“:”Karras,T.、Laine,S.、Aila,T.:生成性对抗网络的基于样式的生成器架构。收录于:CVPR,第4401\u20134410页(2019年)“,“DOI”:“10.1109\/CVPR.2019.00453”},{“key”:“58_CR10”,“unstructured”:“Goodfellow,I.,et al.:Generative敌对网络。收录于NeurIPS,第2672\u20132680页(2014年)”}Mathieu,M.,Couprie,C.,LeCun,Y.:超出均方误差的深度多尺度视频预测。arXiv预印本arXiv:1511.05440(2015)“},{“key”:“58_CR12”,“doi-asserted-by”:“crossref”,“unstructured”:“Zhu,J.Y.,Park,T.,Isola,P.,Efros,A.A.:使用循环一致的对抗网络进行未成对的图像到图像的转换。摘自:ICCV,pp.2223\u20132232(2017)”,“doi”:“10.1109\/ICCV.2017.244”},}“key:”58_CR13“,”unstructure“:”Hoffman,J.等人:Cycada:循环一致的对抗性领域适应。摘自:ICML,第1989\u20131998(2018)页“},{“key”:“58_CR14”,“doi-asserted-by”:“crossref”,“unstructured”:“Isola,P.,Zhu,J.Y.,Zhou,T.,Efros,A.A.:使用条件对抗网络进行图像到图像的转换。摘自:CVPR,第1125\u20131134(2017)页”,“doi”:“10.1109\/CVPR.2017.632”},}“keys”:“58/CR15”,“非结构化”:“Ulyanov,D.,Vedaldi,A.,Lempitsky,V.:实例规范化:快速风格化的缺失要素。arXiv预印本arXiv:1607.08022(2016)“},{“key”:“58_CR16”,“unstructured”:“Liu,M.Y.,Tuzel,O.:耦合生成性对抗网络。收录:NeurIPS,第469\u2013477页(2016)”},},“key“:”58_CR17“,”doi-asserted-by“:”crossref“,”unstructure“:”Anoosheh,A.,Agustsson,E.,Timofte,R.,Van Gool,L.:ComboGAN:图像域转换的无限制可扩展性。参见:CVPR Workshops,第783\u2013790页(2018)“,“DOI”:“10.1109\/CVPRW.2018.00122”},{“key”:“58_CR18”,“DOI-asserted-by”:“crossref”,“unstructured”:“Yao,Y.,Plested,J.,Gedeon,T.:短期脑电信号的信息保留特征滤波器。神经计算(2020)”,“DOI:“10.1016\/J.neucom.2019.11.106”}],“container-title”:[“计算机与信息科学中的通信”,“神经信息处理”],“原标题”:[],“语言”:“en”,“链接”:[{“URL”:“https:\/\/link.springer.com\/content/pdf\/10.1007\/978-3-030-63820-7_58”,“内容类型”:“未指定”,“内容版本”:“vor”,“预期应用”:“相似性检查”}],“存放”:{“日期部分”:[[2021,4,24]],“date-time”:“2021-04-24T03:16:58Z”,“timestamp”:1619234218000},“score”:1,“resource”:{“primary”:{“URL”:“https:\/\/link.springer.com\/10.1007\/978-3030-63820-7_58”}},”subtitle“:[],”shorttitle“:[],”issued“:{”date-parts“:[[2020]]}”,“ISBN”:[“978303063891”,“978330638207”],“references-count”:18,“URL”:“http://\/dx.doi.org\/10.1007\/978-3-030-63820-7_58”,“关系”:{},“ISSN”:[“1865-0929”,“1865-0.937”],“ISSN-type”:[{“类型”:“打印”,“值”:“1865--0929”},{“种类”:“电子”,“数值”:“865-0937”}],“主题”:[],“发布”:{“日期段”:[[2020]]},“2020年11月17日”,“订单”:1,“名称”:“first_online”,“标签”:“第一在线”,“群组”:{“name”:“ChapterHistory”,“label”:“ChapterHistory”}},{“value”:“ICONIP”,“order”:1,“name”:“conference_acrombit”,“标签”:“会议缩写词”,“group”::{“name”:“ConferenceInfo”,“label”:“会议信息”}},{“value”:“曼谷”,“订单”:3,“name”:“Conference_city”,“标签”:“会展城市”,“group”::“会议信息”}},{“value”:“2020”,“order”:5,“name”:“Conference_year”,“label”:“会议年份”,“group”:{“name”:“ConferenceInfo”,“table”:“Conferency Information”},}“value”:“2020年11月18日”,“订单”:7,“name“:”Conference_start_date“,”label“:”会议开始日期“,”group“:{”name“::“2020年11月22日”,“订单”:8,“名称”:“conference_end_date”,“label”:“会议结束日期”,“组”:{“名称”:“会议信息”,“标签”:“大会信息”}},{“值”:“27”,“顺序”:9,“名称“:”conference_number“,”label“:”会议编号“,”group“:{”name“:”ConferenceInfo“,名称“:“conference_id”,“label”:“会议id”,“group”:{“name”:“ConferenceInfo”,“标签”:“会务信息”}},{“value”:“http://www.apnns.org\/ICONIP2020”,“order”:11,“name”:“conference_url”,“tabel”:”会议url“,”group“:{”name“:”ConferenceInformo“,”label“:”会议信息“}}”,{”value“:”Single-blind“,”order“:1,“name”:“type”,“label”:“type”,“group”:{“name”:“ConfEventPeerReviewInformation”,“label”:“Peer Review Information(由会议组织者提供)”}},{“value”:“CMT”,“order”:2,“name”:“conference_management_system”,“标签”:“会议管理系统”,“group”:{“名称”:“confEventPeerrReviewInformation”,“table”:“同行评审信息(由会议组织者提供)”}},{“value”:“618”,“order”:3,“name”:“number_of_submissions_sent_for_review”:“接受的全文数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“label”:“同行评审信息(由会议组织者提供)”}},{“value”:“189”,“order”:5,“name”:“Number_of_short_Papers_Accepted”:“同行评审信息(由会议组织者提供)”}},{“value”:“30%-该值由公式“接受的全文数量/发送供评审的提交数量*100”计算,然后四舍五入为整数。”,“order”:6,“name”:“acceptance_rate_of_Full_Papers”,“label”:“全文接受率”,“group”:{“name”:“ConfEventPeerReviewInformation”,“label”:“同行评审信息(由会议组织者提供)”}}},{“value”:“3.68”,“order”:8,“name”:“average_number_of_papers_per_reviewer”,“label”:“每位评审员的平均论文数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“label”:“同行评审信息(由会议组织者提供)”}},{“value”:“No”,“order”:9,“name”:“external_reviewers_involved”,“label”:“涉及的外部评审员”,“group”:{“name”:“ConfEventPeerReviewInformation”,“label”:“Peer Review Information(由会议组织者提供)”}},{“value”:“由于COVID-19大流行,会议实际上举行了。”,“order”:10,“name”:“additional_info_on_Review_process”,“tabel”:”审核过程的附加信息“,”group“:{”name“:”ConfEventpeerReview信息“,“label”:“同行评审信息(由会议组织者提供)”}}]}}