{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期部分”:[[2022,12,11]],“日期时间”:“2022-12-11T05:40:51Z”,“时间戳”:1670737251929},“出版商位置”:“查姆”,“引用计数”:69,“出版者”:“斯普林格国际出版”,“isbn-type”:[{“值”:“9783031207129”,“类型”:”打印“},{“值”:“9783031207136”,“type”:“electronic”}],“license”:[{“start”:{“date-parts”:[2022,1,1]],“date-time”:“2022-01-01T00:00:00Z”,“timestamp”:1640995200000},“content-version”:“tdm”,“delay-in-days”:0,“URL”:“https:\/\/www.springernature.com\/gp\/researters\/text-and-data-mining”},{“开始”:{“date-ports”:[2022,1,1],“日期-时间”:“2022-01-01T00:00:00Z”,“时间戳”:1640995200000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“https://www.springernature.com//gp\/researters\/text-and-data-mining”}],“content-domain”:{“domain”:[“link.springer.com”],“crossmark-restriction”:false},”short-container-title“:[],”published-print“:{”date-parts“:[2022]]},‘DOI’:“10.1007\/978-3-0”31-20713-6_1“,”type“:”book-chapter“,“created”:{“date-parts”:[[2022,12,10]],“date-time”:“2022-12-10T06:08:19Z”,“timestamp”:1670652499000},“page”:“3-21”,“update-policy”:”http://\/dx.doi.org\/10.1007\/springer_crossmark_policy“,”source“:”Crossref“,“is-referenced-by-count”:0,“title”:[“Unpervised Structure-Consisted Image-to-Image Translation”],“prefix”:“10.1007”,“作者”:[{“ORCID”:“http://\/orcid.org\/00000-0002-6550-1696”,“authenticated-orcid”:false,“given”:“Shima”,“family”:“Shahfar”,“sequence”:“first”,“affiliation”:[]},{“orcid”:”http://\/orcid.org\/0000-0001-5666-5026“,”authenticationed-orcid“:false”,“givin”::“Charalambos”,“家族”:“Poullis”,“序列”:“additional”,“从属关系”:[]}],“成员”:“297”,“在线发布”:{“date-parts”:[[2022,12,11]]},“reference”:[{“key”:“1_CR1”,“doi-asserted-by”:“crossref”,“unstructured”:“Abdal,R.,Qin,Y.,Wonka,P.:Image2StyleGAN:如何将图像嵌入StyleGAN潜在空间?In:IEEE\/CVF国际计算机视觉会议(ICCV)(2019)论文集”,“doi”:“10.1109\/ICCV.2019.00453”},{“key”:”1_CR2“,“doi-asserted-by”:“crossref”,“unstructured”:“Bao,J.,Chen,D.,Wen,F.,Li,H.,Hua,G.:CVAE-GAN:通过非对称训练生成细粒度图像。收录于:IEEE\/CVF CVPR,pp.2745\u20132754(2017)”,“doi”:“10.1109\/ICCV.2017.299”},{“key”:“1_CR3”:“Bousmalis,K.,Silberman,N.,Dohan,D.,Erhan,D.Krishnan,D.:生成性对抗网络的无监督像素级域适配。In:IEEE\/CVF CVPR(2017)”,“DOI”:“10.1109\/CVPR.2017.18”},{“key”:“1_CR4”,“非结构化”:“Chen,X.,Duan,Y.,Houthooft,R.,Schulman,J.,Sutskever,I.,Abbeel,P.:InfoGAN:通过信息最大化生成对抗网进行可解释表征学习。摘自:《第三十届神经信息处理系统国际会议论文集》,第2180\u20132188页(2016)”},{“key”:“1_CR5”,“doi-asserted-by”:“crossref”,“非结构化”:“Choi,Y.、Choi、M.、Kim,M.、Ha,J.W.、Kim、S.、Choo,J.:StarGAN:用于多域图像到图像转换的统一生成对抗网络。In:IEEE\/CVF CVPR(2018)”,“DOI”:“10.1109\/CVPR.2018.00916”},{“key”:“1_CR6”,“DOI-asserted-by”:“crossref”,“非结构”:“Choi,Y.,Uh,Y.,Yoo,J.,Ha,J.W.:StarGAN V2:多个领域的多样化图像合成。In:IEEE\/CFF CVPR(2020)”,“DOI”:“10.1109\/CVR42600.2020.00821”},{“key”:“1_CR7”,“DOI asserted by”:“crossref”,“nonstructured”:“Cordts,M.等人:用于语义城市场景理解的城市景观数据集。In:IEEE\/CFF CVPR(2016)”,“DOI”:“10.1109\/CVPR.2016.350”},{“key”:“1_CR8”,“unstructured”:“Dosovitskiy,A.,Djolonga,J.:你只训练一次:深度网络的有条件训练。In:学习表征国际会议(2020)”}、{“key”:”1_CR9“,“unsructured“:”Dumoulin,V.,Shlens,J.,Kudlur,M.:艺术风格的习得表征。CoRR(2016)“},{“key”:“1_CR10”,“doi-asserted-by”:“crossref”,“unstructured”:“Esser,P.,Haux,J.,Ommer,B.:用于图像合成的潜在特征的无监督鲁棒解缠结。摘自:IEEE\/CVF CVPR,pp.2699\u20132709(2019)”,“doi”:“10.1109\/ICCV.2019.00279”},{“密钥”:“1_CR11”,“非结构化”:“Ganin,Y.,Lempitsky,V.:基于反向传播的无监督域自适应。摘自:机器学习国际会议,第1180\u20131189页。PMLR(2015)“},{“key”:“1_CR12”,“doi-asserted-by”:“crossref”,“unstructured”:“Gatys,L.A.,Ecker,A.S.,Bethge,M.:使用卷积神经网络的图像风格传输。In:2016 IEEE CVF\/CVPR,pp.2414\u20132423(2016)”,“doi”:“10.1109\/CVPR.2016.265”},}“key:”“1_CR13”,“非结构化”:“Gonzalez-Garcia,A.,Van De Weijer,J.,Bengio,Y.:跨域解纠缠的图像到图像翻译。arXiv预印本arXiv:1805.09730(2018)“},{“key”:“1_CR14”,“unstructured”:“Goodfellow,I.等人:生成对抗网络。In:NeurIPS,vol.27(2014)”},},“key“:”1_CR15“,“doi-asserted-by”:“crossref”,“非结构化”:“Guadarrama,S.、Dahl,R.、Bieber,D.、Norouzi,M.、Shlens,J.、Murphy,K.:像素颜色:像素递归着色。arXiv预印本arXiv:1705.07208(2017)“,”DOI“:”10.5244\/C.31.112“},{”issue“:”11“,”key“:”1_CR16“,”首页“:”5464“,”volume“:“28”,”author“:”Z He“,”year“:”2019“,”unstructured“:”He,Z.,Zuo,W.,Kan,M.,Shan,S.,Chen,X.:AttGAN:仅通过更改所需内容进行面部属性编辑。IEEE TIP 28(11),5464\u20135478(2019年)“,”新闻标题“:”IEEE TIP“},{“key”:“1_CR17”,“unstructured”:“Heusel,M.,Ramsauer,H.,Unterthiner,T.,Nessler,B.,Hochreiter,S.:由两个时间尺度更新规则训练的GAN收敛到局部纳什均衡。在:NeurIPS,vol.30(2017)”}中,{Higgins,I.,et al.:beta-VAE:使用约束变分框架学习基本的视觉概念。In:ICLR(2017)“},{“issue”:“5786”,“key”:“1_CR19”,“doi-asserted-by”:“publisher”,“first page”:《504》,“doi”:“10.1126\/science.1127647”,“volume”:「313」,“author”:“GE Hinton”,“year”:“2006”,“unstructured”:“Hinton,G.E.,Salakhutdinov,R.R.:用神经网络降低数据的维数。Science 313(5786),504\u2013507(2006)“,“journal-title”:“Science”},{“key”:“1_CR20”,“unstructured”:“Hu,Q.,Szab\u00f3,A.,Portenier,T.,Favaro,P.,Zwicker,M.:通过混合来分离变异因子。收录于:IEEE\/CVF CVPR,pp.3399\u20133407(2018)”}、{“密钥”:“2_CR21”,“doi-asserted-by”:“crossref”,“非结构化”:“Huang,X.,Belongie,S.:具有自适应实例规范化的实时任意样式传输。In:ICCV(2017)“,”DOI“:”10.1109\/ICCV.2017.167“},{”key“:”1_CR22“,”series-title“:”计算机科学讲义“,”DOI-asserted-by“:”publisher“,”first page“:“179”,“DOI”:“10.1007\/978-3-030-01219-9_11”,“volume-title”:“Computer Vision\u2013 ECCV 2018”,“author”:“X Huang”,”year“:“2018”,”unstructured“:”Huang,X.,Liu,M.-Y.,Belongie,S.,Kautz,J.:多式无监督图像到图像的翻译。收件人:Ferrari,V.,Hebert,M.,Sminchisescu,C.,Weiss,Y.(编辑)ECCV 2018。LNCS,第11207卷,第179\u2013196页。查姆施普林格(2018)。https:\/\/doi.org\/10.1007\/978-3-030-01219-9_11“},{“key”:“1_CR23”,“unstructured”:“Ioffe,S.,Szegedy,C.:批量规范化:通过减少内部协变量偏移来加速深层网络培训。In:Bach,F.,Blei,D.(eds.)第32届机器学习国际会议论文集。机器学习研究论文集,第37卷,第448\u2013456页。PMLR,Lille,France,07\u201309 July 2015“},{“key”:“1_CR24”,“doi asserted by”:“crossref”,“unstructured”:“Isola,P.,Zhu,J.Y.,Zhou,T.,Efros,A.A.:带条件对抗性网络的图像到图像翻译。在:IEEE\/CFF CVPR,pp.1125\u20131134(2017)”,“doi”:“10.1109\/CVPR.2017.632”},{“key”:“1_CR25”,“series title”:“《计算机科学课堂讲稿》,“doi-asserted-by”:“publisher”,“first page”:“694”,“doi”:“10.1007\/978-3-319-46475-6_43”,“volume-title”:“Computer Vision\u2013 ECCV 2016”,“author”:“J Johnson”,“year”:“2016年”,“unstructured”:“Johnson,J.,Alahi,A.,Fei-Fei,L.:实时风格传输和超分辨率的感知损失。收录人:Leibe,B.,Matas,J.,Sebe,N.,Welling,M.(编辑)ECCV 2016。LNCS,第9906卷,第694\u2013711页。查姆施普林格(2016)。https:\/\/doi.org\/10.1007\/978-3-319-46475-6_43“},{“key”:“1_CR26”,“doi-asserted-by”:“crossref”,“unstructured”:“Kaneko,T.,Hiramatsu,K.,Kashino,K.:带条件过滤生成对抗网络的生成属性控制器。In:IEEE CVF\/CVPR,pp.7006\u20137015(2017)”,“doi”:“10.1109\/CVPR.2017.741”},}“key”:“1_CR27”,“doi-asserted-by“:”crossref“,”unstructured“:”Karras,T.,Laine,S.,Aila,T.:生成性对抗网络的基于样式的生成器架构。收录于:IEEE CVF CVPR,pp.4401\u20134410(2019)“,“DOI”:“10.1109 CVPR.2019.00453”},{“key”:“1_CR28”,“DOI-asserted-by”:“crossref”,“unstructured”:“Karras,T.,Laine,S.,Aittala,M.,Hellsten:“10.1109 \/CVPR42600.2020.00813“},{“key”:“1_CR29”,“doi-asserted-by”:“crossref”,“unstructured”:“Kazemi,H.,Iranmanesh,S.M.,Nasrabadi,N.:生成性对抗网络中的风格和内容分离。摘自:2019 IEEE WACV,第848\u2013856页。IEEE(2019)“,“DOI”:“10.1109\/WACV.2019.00095”},{“key”:“1_CR30”,“unstructured”:“Kingma,D.P.,Ba,J.:Adam:一种随机优化方法。预印本arXiv:1412.6980(2014)”}by“:”crossref“,“非结构化”:“Kotovenko,D.,Sanakoyeu,A.,Lang,S.,Ommer,B.:艺术风格转换的内容和风格分离。In:ICCV(2019)“,”DOI“:”10.1109\/ICCV.2019.00452“},{“key”:“1_CR33”,“DOI-asserted-by”:“crossref”,“unstructured”:“Ledig,C.,et al.:使用生成对抗网络的真实感单幅图像超分辨率。In:IEEE\/CVF CVPR,pp.4681\u20134690(2017)”,“DOI”:“10.1109\/CVPR.2017.19”},“key“:”1_CR34“,”DOI-assert-by“:”交叉参考“,”非结构化”:“Lee,C.H.,Liu,Z.,Wu,L.,Luo,P.:MaskGAN:走向多样化和交互式面部图像处理。其中:IEEE CVF\/CVPR(2020)“,”DOI“:”10.1109\/CVPR42600.2020.00559“},{”key“:”1_CR35“,”series-title“:”计算机科学讲义“,”DOI-asserted-by“:”publisher“,”first page“:“36”,”DOI:“10.1007\/978-3-030-01246-5_3”,”volume-title“:“Computer Vision\u2013 ECCV 2018”,”author“:”H-Y Lee“,”year“:”2018“,”unstructured“:”Lee,H.-Y.,Tseng,H.-Y.,Huang,J.-B.,Singh,M.,Yang,M.-H.:通过不纠缠的表示进行多样的图像到图像的翻译。收件人:Ferrari,V.,Hebert,M.,Sminchisescu,C.,Weiss,Y.(编辑)ECCV 2018。LNCS,第11205卷,第36\u201352页。施普林格,查姆(2018)。https:\/\/doi.org\/10.1007\/978-3-030-01246-5_3“},{“key”:“1_CR36”,“doi-asserted-by”:“crossref”,“unstructured”:“Lee,J.,Kim,E.,Lee,Y.,Kim、D.,Chang,J.、Choo,J.:使用增强自引用和密集语义对应的基于引用的草图图像彩色化。In:IEEE\/CVF CVPR(2020)”,“doi”:“10.1109\/CVPR42600.2020.00584”}1_CR37“,”doi-asserted-by“:”crossref“,”unstructured“:”Li,Y.,Singh,K.K.,Ojha,U.,Lee,Y.J.:MixNMatch:条件图像生成的多因子解纠缠和编码。收录于:IEEE \/CVF CVPR(2020)“,”DOI“:”10.1109 \/CVPR42600.2020.00806“},{“key”:“1_CR38”,“unstructured”:“Liu,M.Y.,Breuel,T.,Kautz,J.:无监督图像到图像转换网络。收录:Guyon,I.,et al.(eds.)NeurIPS,vol.30。Curran Associates,Inc.(2017)“},{”key“:”1_CR39“,”doi-asserted-by“:”crossref“,”unstructured“:”Liu,M.Y.,et al.:”Few-shot unsupervised image-to-image translation.In:IEEE\/CVF CVPR(2019)“,”doi“:”10.1109\/ICCV.2019.01065“}”,{Liu,Z.,Luo,P.,Wang,X.,Tang,X.:野外深度学习人脸属性。In:ICCV(2015)“,”DOI“:”10.1109\/ICCV.2015.425“},{“key”:“1_CR41”,“DOI-asserted-by”:“crossref”,“unstructured”:“Maggiori,E.,Tarabalka,Y.,Charpiat,G.,Alliez,P.:语义标记方法能推广到任何城市吗?INRIA航空图像标记基准。In:IEEE International Geoscience and Remote Sensing Symposium(IGARSS)。IEEE(2017)”,“DOI“:”10.1109\/IGARSS.2017.8127684“},{“key”:“1_CR42”,“unstructured”:“Mirza,M.,Osindero,S.:条件生成对抗网。arXiv预印本arXiv:1411.1784(2014)”},},“key“:”1_CR43“,“unsructured“:”van den Oord,A.,Kalchbrenner,N.,Espeholt,L.,Kavukcuoglu,K.,Vinyals,O.,Graves,A.:使用PixelCNN解码器生成条件图像。In:NIPS(2016)“},{“key”:“1_CR44”,“doi-asserted-by”:“crossref”,“unstructured”:“Park,T.,Liu,M.Y.,Wang,T.C.,Zhu,J.Y.:具有空间自适应归一化的语义图像合成。In:IEEE\/CVF CVPR(2019)”,“doi”:“10.1109\/CVPR.2019.00244”},}Park,T.等人:交换自动编码器进行深层图像处理。In:NeurIPS(2020)“},{“key”:“1_CR46”,“unstructured”:“Salimans,T.,Karpathy,A.,Chen,X.,Kingma,D.P.:PixelCNN++:使用离散逻辑混合似然度和其他修改改进Pixel有线电视新闻网。arXiv预印本arXiv:1701.05517(2017)”},},“key“:”1_CR47“,”doi-asserted-by“:”crossref“,”非结构化“:”Sangkloy,P.,Lu,J.,Fang,C.,Yu,F.,Hays,J.:书写者:用草图和颜色控制深层图像合成。其中:IEEE \/CVF CVPR(2017)“,”DOI“:”10.1109 \/CVPR.2017.723“},{“key”:“1_CR48”,“DOI-asserted-by”:“crossref”,“unstructured”:“Singh,K.K.,Ojha,U.,Lee,Y.J.:FineGAN:用于细粒度对象生成和发现的无监督分层解缠结。其中:IEEE\/CVF-CVPR 49“,”非结构化“:”Sohn,K.,Lee,H.,Yan,X.:使用深层条件生成模型学习结构化输出表示。In:NeurIPS,第28卷,第3483\u20133491页(2015)“},{“key”:“1_CR50”,“unstructured”:“Song,Y.,Yang,C.,Lin,Z.,Li,H.,Huang,Q.,Kuo,C.C.J.:使用多尺度特征图像翻译进行图像修复。arXiv预印本arXiv:1711.08590(2017)”},},“key“:”1_CR51“,“unsructured“:”Ulyanov,D.,Vedaldi,A.,Lempitsky,V.S.:实例规范化:快速风格化的缺失要素。CoRR abs \/1607.08022(2016)“},{“key”:“1_CR52”,“unstructured”:“Van Oord,A.,Kalchbrenner,N.,Kavukcuoglu,K.:像素递归神经网络。摘自:国际机器学习会议,第1747\u20131756页。PMLR(2016)“},{“key”:“1_CR53”,“doi-asserted-by”:“crossref”,“unstructured”:“Vincent,P.,Larochelle,H.,Bengio,Y.,Manzagol,P.A.:使用去噪自动编码器提取和合成鲁棒特征。摘自:第25届国际机器学习会议论文集,ICML 2008,第1096\u20131103页。计算机械协会,纽约(2008)“,”DOI“:”10.1145\/1390156.1390294“},{”key“:”1_CR54“,”DOI-asserted-by“:”crossref“,”unstructured“:”Wang,T.C.,Liu,M.Y.,Zhu,J.Y.,Tao,A.,Kautz,J.,Catanzaro,B.:用条件GANs进行高分辨率图像合成和语义操作。In:IEEE CVF\/CVPR(2018)会议记录“,”DOI“:”10.1109\/CVPR.2018.00917“},{“key”:“1_CR55”,“DOI-asserted-by”:“crossref”,“unstructured”:“Xian,W.,et al.:TextureGAN:控制带纹理补丁的深度图像合成。In:IEEE\/CVF CVPR(2018)”,“DOI”:“10.1109\/CVPR.2018.00882”},}“key”:Xu,T.,et al.:AttnGAN:使用注意力生成对抗网络生成细粒度文本到图像。在:IEEE\/CVF CVPR(2018)”,“DOI”:“10.1109\/CVPR.2018.00143”},{“key”:“1_CR57”,“DOI由”断言:“crossref”,“nonstructured”:“Yeh,R.,Chen,C.,Lim,T.Y.,Hasegawa Johnson,M.,Do,M.N.:带感知和上下文损失的语义图像修复。arXiv预印本arXiv:1607.075392(3)(2016)”,“DOI”:“10.1109\/CVPR.2017.728”},{“key”:“1_CR58”,”doi-asserted-by“:”crossref“,”unstructured“:”Yi,Z.,Zhang,H.,Tan,P.,Gong,M.:DualGAN:图像到图像翻译的无监督双重学习。In:ICCV(2017)“,”DOI“:”10.1109\/ICCV.2017.310“},{“key”:“1_CR59”,“unstructured”:“Yu,F.,Zhang,Y.,Song,S.,Seff,A.,Xiao,J.:LSUN:使用循环中的人类深度学习构建大规模图像数据集。arXiv预印本arXiv:1506.03365(2015)”},},“key“:”1_CR60“,“unsructured“:”Yu,X.,Chen,Y.,Liu,S.,Li,T.,Li.,G.:通过学习去纠缠实现多映射图像到图像的翻译。In:NeurIPS(2019)“},{“key”:“1_CR61”,“doi-asserted-by”:“crossref”,“unstructured”:“Zhang,B.,et al.:Deep examplar-based video colorization(2019年)”,“doi”:“10.1109\/CVPR.2019.00824”},},“key“:”1_CR62“,”doi-assert-by“交叉引用”,“非结构化”:“Zhang,H.,et al.:StackGAN:使用堆叠生成对抗网络的文本到照片真实感图像合成。In:ICCV(2017)“,”DOI“:”10.1109\/ICCV.2017.629“},{“key”:“1_CR63”,“DOI-asserted-by”:“crossref”,“unstructured”:“Zhang,R.,Isola,P.,Efros,A.A.,Shechtman,E.,Wang“:”crossref“,”非结构化“:”Zhang,R.等人:实时用户引导的图像彩色化,具有学习到的深度先验知识。ACM事务处理。图表。(TOG)36(4),2013年1月11日(2017年)。美国纽约州纽约市ACM“,”DOI“:”10.1145\/3072959.3073703“},{”key“:”1_CR65“,”DOI-asserted-by“:”crossref“,”unstructured“:”Zhang,Y.,et al.:DatasetGAN:最省力的高效标记数据工厂。In:CVPR(2021)“,”DOI“:“:”publisher“,”first page“:”597“,”DOI“:”10.1007\/978-3-319-46454-1_36“,”volume-title“:”Computer Vision\u2013 ECCV 2016“,”author“:”J-Y Zhu“,“year”:“2016”,”unstructured“:”Zhu,J.-Y.,Kr\u00e4henb\u00fchl,P.,Shechtman,E.,Efros,A.A.:对自然图像流形的生成性视觉操作。收录人:Leibe,B.,Matas,J.,Sebe,N.,Welling,M.(编辑)ECCV 2016。LNCS,第9909卷,第597\u2013613页。查姆施普林格(2016)。https:\/\/doi.org\/10.1007\/978-3-319-46454-1_36“},{“key”:“1_CR67”,“doi-asserted-by”:“crossref”,“unstructured”:“Zhu,J.Y.,Park,T.,Isola,P.,Efros,A.A.:使用循环一致对抗网络进行未配对的图像到图像转换。In:ICCV(2017)”,“doi”:“10.1109\/ICCV.2017.244”},},“key“:”1_CR68“,”unstructure“:”Zhu,J.Y.,et al.:通过加强双循环一致性实现多模态图像到图像的转换。In:NeurIPS,pp.465\u2013476(2017)“},{“key”:“1_CR69”,“doi-asserted-by”:“crossref”,“unstructured”:“Zhu,Z.,Xu,A.,You,Bai,X.:语义多模态图像合成。In:IEEE\/CVF CVPR(2020)”,“doi”:“10.1109\/CVPR42600.2020.00551”}],“container-title”:[“视觉计算的进展”,“计算机科学的讲稿”],“原始标题”:[],“链接”:[{“URL”:“https:\/\/link.springer.com\/content\/pdf\/10.1007\/978-3-031-20713-6_1”,“内容类型”:“未指定”,“内容版本”:“vor”,“预期应用程序”:“相似性检查”}],“存放”:{“日期部分”:[[2022,12,10],“日期时间”:“2022-12-10T06:09:05Z”,“时间戳”:1670652545000},“分数”:1,“资源”:{“主要”:{“URL”:“https:\/\/link.springer.com/10.1007\/978-3-031-20713-6_1”}},“副标题”:[],“短标题”:[],“已发布”:{“日期-部件”:[[2022]]},”ISBN“:[”9783031207129“,”97830.31207136“],“引用计数”:69,“URL”:“http://\/dx.doi.org\/10007\/988-3-031-20 713-6_1”,“关系”:{}、“ISSN”:[“0302-9743”,“1611-3349”],“ISSN-type”:[{“value”:“0302-7743”,{“value”:“1611-3349”,“type”:”electronic“}],“subject”:[],“published”:{“date-parts”:[[2022]]},“assertion”:[{“value”:“2022年12月11日”,“order”:1,“name”:“first_online”,“label”:“first online”,”group“:{”name“:”ChapterHistory“,”label“:”“Chapter History,“label”:“conference acronym”,“group”:{“name”:“ConferenceInfo”,“label”:“Confection Information”}},{“value”:“Visual Computing国际研讨会”,“order”:2,“name”:“Conference_name”,“标签”:“会议名称”,“group”:{“name”:“ConfernceInfo”:“ConferenceInfo”,“label”:“Confection Information”}},{“value”:“USA”,“order”:4,“name”:“Conference_country”,“标签”:“会议国家”,“group”:{“name”:“ConferenceInfo”},{“value”:“2022年10月3日”,“order”:7,“name”:“conference_start_date”,“label”:“会议开始日期”,“group”:{“name”:“ConferenceInfo”,“label”:“会议信息”}},{“value”:“2022年10月5日”,“order”:8,“name”:“conference_end_date”,“label”:“会议结束日期”,“group”:{“name”:“ConferenceInfo”,“label”:“会议信息”}},{“value”:“17”,“order”:9,“name”:“conference_number”,“label”:“conference number”,“group”:{“name”:“ConferenceInfo”,”label“:“Confection Information”}},{“value”:“isvc2022”,”order“:10,”name“:”conference_id“,”labele“:”ConferenceID“,”group“::11,“name”:“conference_url”,“label”:“会议URL”,“group”:{“name”:“ConferenceInfo”,“label:”会议信息“}},{“value”:“Double-blind”,“order”:1,“name”:“type”,”label“:”type“,”group“:{”name“:”ConfEventPeerReviewInformation“,”label:“Peer Review Information(由会议组织者提供)”}},“label”:“会议管理系统”,“group”:{“name”:“ConfEventPeerReviewInformation”:“同行评议信息(由会议组织者提供)”}},{“value”:“61”,“order”:4,“name”:“number_of_full_papers_accepted”,“label”:“已接受的全文数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“label”:”同行评议资讯(由会议主办方提供)“}}:“number_of_short_papers_accepted”,“label”:“接受的短文数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“标签”:“同行评审信息(由会议组织者提供)”}},{“value”:“55%-值由等式计算\”已接受的完整论文数\/已发送供审阅的提交数*100”,然后四舍五入为整数。“,”订单“:6,”名称“:”acceptance_rate_of_Full_Papers“,”标签“:”完整论文的接受率“,”组“:{”name“:”ConfEventPeerReviewInformation“,”label“:”同行审阅信息(由会议组织者提供)“}},{”value“:”3“,“order”:7,“name”:“average_number_of_reviews_per_paper”,“label”:“每篇论文的平均评论数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“标签”:“同侪评论信息(由会议组织者提供)”}},{“value”:“2-3”,“order:8,”name“average _number_ of_papers_per_reviewer”,”label“:“每位审阅者的平均论文数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“label”:“同行评审信息(由会议组织者提供)”}}}]}}