{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期部分”:[[2024,6,19]],“日期时间”:“2024-06-19T05:58:22Z”,“时间戳”:1718776702931},“发布者位置”:“查姆”,“引用计数”:50,“发布商”:“斯普林格自然瑞士”,“isbn-type”:[{“值”:“97830197833”,“类型”:”打印},{“值”:“9783031197840”,“类型”:“electronic”}],“license”:[{“start”:{“date-parts”:[[2022,1,1]],“date-time”:“2022-01-01T00:00:00Z”,“timestamp”:1640995200000},“content-version”:“tdm”,“delay-in-days”:0,“URL”:“https:\\/www.springer.com\/tdm”}:1640995200000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“https:\\/www.springer.com//tdm”},{“start”:{“date-parts”:[2022,1,1]],“date-time”:“2022-01-01T00:00:00Z”,“timestamp”:1640995200000},“content-version”:“tdm”,“delay-in-days”:0,“URL”:“https:\/\/www.splingernature.com\/gp\/researters\/text-and-data-mining”}],“日期-时间”:“2022-01-01T00:00:00Z”,“时间戳”:1640995200000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“https://www.springernature.com//gp\/researters\/text-and-data-mining”}],“content-domain”:{“domain”:[“link.springer.com”],“crossmark-restriction”:false},”short-container-title“:[],”published-print“:{”date-parts“:[2022]]},‘DOI’:“10.1007\/978-3-0”31-19784-0_10“,”类型“:”书壳“,“created”:{“date-parts”:[[2022,10,30]],“date-time”:“2022-10-30T14:02:50Z”,“timestamp”:1667138570000},“page”:“161-178”,“update-policy”:”http://\/dx.doi.org\/10.1007\/springer_crossmark_policy“,”source“:”Crossref“,“is-referenced-by-count”:17,“title”:[“用于可控制个人图像合成的基于交叉注意的风格分布”],“前缀“”:“10.1007”,“作者”:[{“给定”:“欣悦”,“家庭”:“周”,“序列”:“第一”,“从属关系”:[]},{“给出”:“明宇”,“家族”:“阴”,“顺序”:“附加”,“隶属关系”:[]}、{“已知”:“心源”,“家人”:“陈”,“序贯”:“额外”,“附属关系”:【】[]},{“给定”:“常新”,“家庭”:“高”、“sequence”:“additional”,“affiliation”:[]},{“given”:“Qingli”,“family”:“Li”,“sequences”:“附加”,“从属”:[]}],“member”:“297”,“published-on-line”:{“date-parts”:[2022,10,31]]}:“Balakrishnan,G.,Zhao,A.,Dalca,A.V.,Durand,F.,Guttag,J.:以看不见的姿势合成人类图像。摘自:IEEE计算机视觉和模式识别会议记录,第8340\u20138348页(2018)”,“DOI”:“10.1109\/CVPR.2018.00870”},{“key”:“10_CR2”,“series-title”:“计算机科学讲稿”,“DOI-asserted-by”:“publisher”,“first page”:“213”,“DOI”:“10.1007\/978-3-030-58452-8_13”,《volume-title》:“Computer Vision\u2013 ECCV 2020”,“author”:“N Carion”,“year”:“2020”,《unstructured》:“Carion,N.、Massa,F.、Synnaeve,G.、Usunier,N.,Kirillov,A.、Zagoruyko,S.:使用变压器进行端到端对象检测。摘自:Vedaldi,A.、Bischof,H.、Brox,T.、Frahm,J.-M.(编辑)ECCV 2020。LNCS,第12346卷,第213\u2013229页。查姆施普林格(2020)。https:\/\/doi.org\/10.1007\/978-3-030-58452-8_13“},{“key”:“10_CR3”,“doi-asserted-by”:“crossref”,“unstructured”:“Dong,H.,Liang,X.,Shen,X.、Wu,B.,Chen,B.C.,Yin,J.:FW-GAN:视频虚拟试验的流空翘曲GAN。摘自:IEEE\/CVF国际计算机视觉会议记录,第1161\u20131170(2019)页”,“doi”:“10.1109 \/ICCV.2019.00125“},{“key”:“10_CR4”,“unstructured”:“Dosovitskiy,A.,et al.:图像值16$$\\乘以16$$16个单词:缩放图像识别变压器。arXiv预印本arXiv:2010.11929(2020)”},},“key“:”10_CR5“,”doi-asserted-by“:”crossref“,”unstructure“:”Esser,P.,Sutter,E.,Ommer,B.:条件外观和形状生成的可变U网。摘自:IEEE计算机视觉和模式识别会议论文集,第8857\u20138866页(2018)“,”DOI“:”10.1109\/CVPR.2018.00923“},{“key”:“10_CR6”,“unstructured”:“Ge,Y.,et al.:FD-GAN:位置引导特征提取GAN,用于稳健的人重新识别。arXiv预印本arXiv:1810.02936(2018)”},“key“:”10_CR7“,”DOI-asserted-by“:”crossref”,“非结构化”:“Ge,Y.,Song,Y.、Zhang,R.,Ge,C.、Liu,W.、Luo,P.:通过提取外观流进行无解析虚拟试运行。摘自:IEEE计算机视觉和模式识别会议记录,第8485\u20138493(2021)页,“DOI”:“10.1109”,{“key”:“10_CR8”,“DOI-asserted-by”:“crossref”,“unstructured”:“龚,K,梁,X,张,D,沈,X,林,L:观察人:自我监督的结构敏感学习和人类分析的新基准。摘自:IEEE计算机视觉和模式识别会议记录,第932\u2013940页(2017)“,”DOI“:”10.1109\/CVPR.2017.715“},{”key“:”10_CR9“,”DOI-asserted-by“:”crossref“,”unstructured“:”Han,X.,Wu,Z.,WuZ.,Yu,R.,Davis,L.S.:Viton:一种基于图像的虚拟网上试用。在:《IEEE计算机视觉与模式识别会议论文集》,第7543\u20137552页(2018),“DOI”:“10.1109\/CVPR.2018.00787”},{“key”:“10_CR10”,“first page”:“1”,“volume”:“30”,“author”:“M Heusel”,“year”:“2017”,“nonstructured”:“Heusel,M.,Ramsauer,H.,Unterthiner,T.,Nessler,B.,Hochreiter,S.:由两个时间尺度更新规则训练的GAN收敛到局部纳什均衡。高级神经。信息处理。系统。30,1\u201312(2017)“,“新闻标题”:“高级神经。信息处理。系统。“},{”key“:”10_CR11“,”doi-asserted-by“:”crossref“,”unstructured“:”Hu,J.,Shen,L.,Sun,G.:压缩和激励网络。摘自:IEEE计算机视觉和模式识别会议论文集,第7132\u20137141(2018)页“,”doi“:”10.1109\/CVPR.2018.00745“}”,{Huang,X.,Belongie,S.:具有自适应实例规范化的实时任意样式传输。摘自:IEEE计算机视觉国际会议论文集,第1501\u20131510页(2017)“,“DOI”:“10.1109\/ICCV.2017.167”},{“key”:“10_CR13”,“DOI-asserted-by”:“crossref”,“unstructured”:“黄,Z.,王,X.,黄,L.,黄,C.,魏,Y.,刘,W.:CCNet:语义切分的交叉关注。摘自:IEEE计算机视觉国际会议论文集,第603\u2013612(2019)页“,”DOI“:”10.1109“/ICCV.2019.0069“},{“key”:“10_CR14”,“unstructured”:“Kingma,D.P.,Ba,J.:Adam:一种随机优化方法。arXiv预印本arXiv:1412.6980(2014)”},“{”key“:”10_CR15“,”DOI-asserted-by“:”crossref“,”unstructure“:”Li,Y.,Huang,C.,Loy,C.C.:人体姿势转换的密集内在外观流。在:《IEEE\/CFF计算机视觉与模式识别会议论文集》,第3693\u20133702页(2019),“DOI”:“10.1109\/CVPR.2019.00381”},{“key”:“10_CR16”,“DOI asserted by”:“crossref”,“nonstructured”:“Liu,W.、Piao,Z.、Min,J.、Luo,W.,Ma,L.、Gao,S.:液体扭曲GAN:人体运动模拟、外观转移和新奇视图合成的统一框架。摘自:IEEE计算机视觉国际会议论文集,第5904\u20135913(2019)页“,”DOI“:”10.1109\/ICCV.2019.00600“},{“key”:“10_CR17”,“DOI-asserted-by”:“crossref”,“unstructured”:“Liu,Z.,et al.:Swin transformer:使用移位窗口的分层视觉转换器。arXiv预印本arXiv:2103.14030(2021)”,“DOI”:“10.1109 \/ICCV48922.2021.00986“},{“key”:“10_CR18”,“doi-asserted-by”:“crossref”,“unstructured”:“Liu,Z.,Luo,P.,Qiu,S.,Wang,X.,Tang,X.:DeepFashion:使用丰富的注释支持稳健的衣服识别和检索。摘自:IEEE计算机视觉和模式识别会议(CVPR)(2016)论文集”,“doi”:“10.1109\/CVPR.2016.124“},{“key”:“10_CR19”,“doi-asserted-by”:“crossref”,“unstructured”:“Lv,Z.,et al.:通过区域自适应归一化学习语义人物图像生成。摘自:IEEE\/CVF计算机视觉和模式识别会议论文集,第10806\u201310815(2021)页”,“doi”:“10.1109\/CVPR46437.2021.01066”},}“key:”10_CR20“,”doi-asserted-by“:”crossref“,”unstructured“:”Ma,L.,Jia,X.,Sun,Q.,Schiele,B.,Tuytelaars,T.,Van Gool,L.:姿势引导的人物图像生成。arXiv预印本arXiv:1705.09368(2017)“,“DOI”:“10.1109\/CVPR.2018.00018”},{“key”:“10_CR21”,“DOI-asserted-by”:“crossref”,“unstructured”:“Ma,L.,Sun,Q.,Georgoulis,S.,Van Gool“,”DOI“:”10.1109\/CVPR.2018.00018“},{“key”:“10_CR22”,“DOI-asserted-by”:“crossref”,“unstructured”:“Mechrez,R.,Talmi,I.,Zelnik-Manor,L.:非对齐数据图像转换的上下文损失。摘自:《欧洲计算机视觉会议论文集》,第768\u2013783页(2018)”,“DOI”:“10.1007\/978-3-030-01264-9_47”}10_CR23“,”doi-asserted-by“:”crossref“,”unstructured“:”Men,Y.,Mao,Y.、Jiang,Y..、Ma,W.Y.、Lian,Z.:使用属性分解GAN进行可控人物图像合成。收录于:IEEE计算机视觉和模式识别会议论文集,第5084\u20135093(2020)页,“DOI”:“10.1109\/CVPR42600.2020.00513”},{“key”:“10_CR24”,“DOI-asserted-by”:“crossref”,“unstructured”:“Park,T.,Liu,M.Y.,Wang,T.C.,Zhu,J.Y.:具有空间自适应规范化的语义图像合成。收录于:IEEE计算机视觉和模式识别会议记录,第2337\u20132346(2019)页“,”DOI“:”10.1109\/CVPR.2019.00244“},{“key”:“10_CR25”,“DOI-asserted-by”:“crossref”,“unstructured”:“Pumarola,A.、Agudo,A.、Sanfeliu,A.、Moreno-Noguer,F.:任意姿势下的无监督人物图像合成。摘自:IEEE计算机视觉和模式识别会议记录,第8620\u20138628页(2018)“,“DOI”:“10.1109\/CVPR.2018.00899”},{“key”:“10_CR26”,“DOI-asserted-by”:“crossref”,“unstructured”:“Ren,Y.,Yu,X.,Chen,J.,Li,T.H.,李,G.:用于人物图像生成的深层图像空间转换。收录于:IEEE计算机视觉和模式识别会议记录,第7690\u20137699页(2020)“,“DOI”:“10.1109”,{“key”:“10_CR27”,“DOI-asserted-by”:“crossref”,“unstructured”:“Sanyal,S.等人:使用具有3D形状、姿势和外观一致性的循环自我视觉学习真实的人类休息。收录于:IEEE计算机视觉国际会议论文集,第11138\u201311147(2021)页,“DOI”:“10.1109”,{“key”:“10_CR28”,“DOI-asserted-by”:“crossref”,“unstructured”:“Siarohin,A.,Sangineto,E.,Lathuiliere,S.,Sebe,N.:基于位置的人体图像生成的可变形GAN。摘自:IEEE计算机视觉和模式识别会议论文集,第3408\u20133416页(2018)“,”DOI“:”10.1109\/CVPR.2018.00359“},{“key”:“10_CR29”,“unstructured”:“Simonyan,K.,Zisserman,A.:用于大规模图像识别的超深卷积网络。arXiv预印本arXiv:1409.1556(2014)”},“key“:”10_CR30“,”DOI-asserted-by“:”crossref”,“非结构化”:“Song,S.,Zhang,W.,Liu,J.,Mei,T.:使用语义解析转换生成无监督的人物图像。摘自:IEEE CVF计算机视觉和模式识别会议记录,第2357\u20132366(2019)页“,”DOI“:”10.1109\/CVPR.2019.00246“},{“key”:“10_CR31”,“series-title”:“Computer Science课堂讲稿”,“DOI-asserted-by”:“publisher”,“first-page”:“717”,“DOI”:“10.1007\/978-3030-58595-2_43”,“volume-title”:Computer Vision\u2013 ECCV 2020”,“author”:“H Tang”,“year”:“2020年”,“unstructured”:“Tang,H.,Bai,S.,Zhang,L.,Torr,P.H.S.,Sebe,N.:用于生成人物图像的兴干。收录人:Vedaldi,A.、Bischof,H.、Brox,T.、Frahm,J.-M.(编辑)ECCV 2020。LNCS,第12370卷,第717\u2013734页。查姆施普林格(2020)。https:\/\/doi.org\/10007\/978-3-030-58595-2_43“},{“key”:“10_CR32”,“unstructured”:“Touvron,H.,Cord,M.,Douze,M.、Massa,F.,Sablayrolles,A.,J\u00e9gou,H.:通过注意力训练数据高效的图像变换器和蒸馏。摘自:国际机器学习会议,第10347\u201310357页。PMLR(2021)“},{“key”:“10_CR33”,“nonstructured”:“Vaswani,A.等人:注意力就是你所需要的。In:Advances In Neural Information Processing Systems,pp.5998\u20136008(2017)”},{“key”:“10_CR34”,“doi asserted by”:“crossref”,“nonstructured”:“Wang,B.,Zheng,H.,Liang,X.,Chen,Y.,Lin,L.,Yang,M.:面向基于图像的特征呈现虚拟试验网络。摘自:《欧洲计算机视觉会议论文集》,第589\u2013604(2018)页,“DOI”:“10.1007\/978-3-030-01261-8_36”},{“key”:“10_CR35”,“DOI-asserted-by”:“crossref”,“unstructured”:“Wang,W.,et al.:金字塔视觉变换器:无卷积密集预测的通用主干。arXiv预印本arXiv:2102.1212(2021)“,”DOI“:”10.1109\/ICCV48922.2021.00061“},{”key“:”10_CR36“,”DOI-asserted-by“:”crossref“,”unstructured“:”Wang,X.,Girshick,R.,Gupta,A.,He,K.:非局部神经网络。摘自:IEEE计算机视觉和模式识别会议论文集,第7794\u20137803页(2018)“,“DOI”:“10.1109\/CVPR.2018.00813“},{“issue”:“4”,“key”:“10_CR37”,“doi-asserted-by”:“publisher”,“first-page”:“600”,“doi”:“10.1109\/TIP.2003.819861”,“volume”:”13“,“author”:“Z Wang”,“year”:“2004”,“unstructured”:“Wang,Z.,Bovik,A.C.,Sheikh,H.R.,Simoncelli,E.P.:图像质量评估:从错误可见性到结构相似性。IEEE传输。图像处理。13(4),600\u2013612(2004)“,“期刊标题”:“IEEE Trans。图像处理。“},{”key“:”10_CR38“,”doi-asserted-by“:”crossref“,”unstructured“:”Wei,L.,Zhang,S.,Gao,W.,Tian,Q.“:人转移GAN以桥接领域缺口以实现人的重新识别。In:IEEE计算机视觉和模式识别会议论文集,pp.79\u201388(2018)“,”doi“:”10.1109\/CVPR.2018.00016“}”,{“key”:“10_CR39”,“doi-asserted-by“:”crossref“,”unstructured“:”Xu,W.,Long,C.,Wang,R.,Wang。收录于:IEEE计算机视觉国际会议论文集,第6383\u20136392(2021)页,“DOI”:“10.1109”,{“key”:“10_CR40”,“DOI-asserted-by”:“crossref”,“unstructured”:“Yang,C.,Wang,Z.,Zhu,X.,Huang,C.,Shi,J.,Lin,D.:姿势引导的人类视频生成。在:《欧洲计算机视觉会议记录》(ECCV),第201\u2013216页(2018),“DOI”:“10.1007\/978-3-030-01249-6_13”},{“key”:“10_CR41”,“DOI断言”:“publisher”,“first page”:“2422”,“DOI”:“10.1109\/TIP.20213052364”,“volume”:“30”,“author”:“L Yang”,“year”:“2021”,“nonstructured”:“Yang,L.,et al.:《利用细节补充网络实现细粒度人体姿势转换》,IEEE Trans。图像处理。30,2422\u20132435(2021)“,“日志标题”:“IEEE Trans。图像处理。“},{”key“:”10_CR42“,”series-title“:”计算机科学课堂讲稿“,”doi-asserted-by“:”publisher“,”first page“:“87”,”doi“:”10.1007\/978-3-030-58604-1_6“,”volume-title“:“Computer Vision\u2013 ECCV 2020”,”author“:”M Yin“,”year“:”2020“,”unstructured“:”Yin,M.,Sun,L.,Li,Q.:使用条件可变形变分自动编码器对未成对数据进行新型视图合成。收录人:Vedaldi,A.、Bischof,H.、Brox,T.、Frahm,J.-M.(编辑)ECCV 2020。LNCS,第12373卷,第87\u2013103页。查姆施普林格(2020)。https:\/\/doi.org\/10.1007\/978-3-030-58604-1_6“},{“key”:“10_CR43”,“doi-asserted-by”:“crossref”,“unstructured”:“Zhang,J.,Li,K.,Lai,Y.K.,Yang,J.:PISE:使用解耦GAN进行人物图像合成和编辑。摘自:IEEE\/CVF计算机视觉和模式识别会议论文集,第7982\u20137990(2021)页”,“doi”:“10.1109\/CVPR46437.2021.00789“},{“key”:“10_CR44”,“doi-asserted-by”:“crossref”,“unstructured”:“Zhang,P.,Zhang、B.,Chen,D.,Yuan,L.,Wen,F.:基于样本的图像翻译的跨域对应学习。摘自:IEEE\/CVF计算机视觉和模式识别会议论文集,pp.5143\u20135153(2020)”,“doi”:“10.1109\/CVPR42600.2020.00519“},{“key”:“10_CR45”,“doi-asserted-by”:“crossref”,“unstructured”:“Zhang,R.,Isola,P.,Efros,A.A.,Shechtman,E.,Wang,O.:深层特征作为感知度量的不合理有效性。摘自:IEEE计算机视觉和模式识别会议论文集,第586\u2013595页(2018)”,“doi”:“10.1109\/CVPR.2018.00068“},{“key”:“10_CR46”,“doi-asserted-by”:“crossref”,“unstructured”:“Zheng,S.等人:用变压器从序列到序列的角度重新思考语义分割。摘自:IEEE\/CVF计算机视觉和模式识别会议论文集,第6881\u20136890(2021)页”,“doi”:“10.1109\/CVPR46437.2021.00681“},{“key”:“10_CR47”,“doi-asserted-by”:“crossref”,“unstructured”:“Zheng,Z.,Zheng,{“key”:“10_CR48”,“doi-asserted-by”:“crossref”,“unstructured”:“Zhou,X.,et al.:CoCosNet v2:图像翻译的全分辨率对应学习。摘自:IEEE计算机视觉与模式识别会议论文集,第11465\u201311475(2021)页”,“doi”:“10.1109\/CVPR46437.2021.01130”},{:“Zhu,X.,Su,W.,Lu,L.,Li,B.,Wang,X,Dai,J.:可变形DETR:端到端对象检测的可变形变压器。arXiv预打印arXiv:2010.04159(2020)”},{“key”:“10_CR50”,“doi-asserted-by”:“crossref”,“unstructured”:“Zhu,Z.,Huang,T.,Shi,B.,Yu,M.,Wang,B.,Bai,X.:用于人物图像生成的渐进式姿势-注意转移。摘自:IEEE计算机视觉和模式识别会议论文集,第2347\u20132356(2019)页”,“DOI”:“10.1109\/CVPR.2019.00245”}],“容器-标签”:[“计算机科学课堂讲稿”,“Computer Vision\u2013 ECCV 2022”],“original-title”:[],“link”:[{“URL”:“https:\/\/link.springer.com/content\/pdf\/10.1007\/978-3-031-19784-0_10”,“content-type”:“unspecified”,“content-version”:“vor”,“intended-application”:“similarity-checking”}],“deposed”:{“date-parts”:[2024,3,13]],“date-time”:”2024-03-13T19:32:10Z“,”时间戳“:1710358330000},“score”:1,“resource”:{“primary”:{“URL”:“https:\/\/link.springer.com/10.1007\/978-3-031-19784-0_10”}},“subtitle”:[],“shorttitle”:[],“issued”:}“date-parts”:[[2022]]},”ISBN“:[”97830197833“,”9783031197840“],”references-count“:50,”URL“http://\/dx.doi.org\/10007\/97 8-3-031-19784-0_10“,”关系“:{},”ISSN“:[”0302-9743“,”1611-3349“],”ISSN-type“用法:[{“value”:“0302-9743”,“type”:”print“},{“value”:“1611-3349”,“type”:“electronic”}],“subject”:[],“published”:{“date-parts”:[[2022]]},“assertion”:[{value:“2022年10月31日”,“order”:1,“name”:“first_online”,“label”:“first online”,:“ECCV”,“order”:1,“name”:“conference_acrombit”,“label”:“会议缩写”,“组”:{“name”:“ConferenceInfo”,“label”:“会议信息”}},{“value”:“欧洲计算机视觉会议”,“订单”:2,“名称”:“Conference_name”,“group”:{“name”:“ConferenceInfo”,“label”:“会议信息”}},{“value”:“Israel”,“order”:4,“name”:“Conference_country”,“table”:“conferency country”,”group“:{”name“:”ConferenceInformo“,”label“:”conferenceInformation“},”value“:”2022“,”order“:5,”name“:”Conference_year“,”table“:”会议年份“,”groups“:”{“name:”ConferenceInfo“,”“标签”:“会议信息”}},{“value”:“2022年10月23日”,“order”:7,“name”:“Conference_start_date”,“label”:“会议开始日期”,“group”:{“name”:“ConferenceInfo”,”label“:“Conferency Information”}}}:“会议信息”}},{“value”:“17”,“order”:9,“name”:“Conference_number”,“label”:“ConferenceNumber”,“group”:{“name”:“ConferenceInfo”,”label“:”ConferenceInformation“}}:“https:\/\/eccv2022.ecva.net\/”,“order”:11,“name”:“conference_url”,“label”:“conference url”,“group”:{“name”:“ConferenceInfo”,“标签”:“会议信息”}},{“value”:“Double-blind”,“订单”:1,“name“:”type“,”label“:”type“,”group“:{”name“ConfEventPeerReviewInformation”,“table”:“同行评审信息(由会议组织者提供)”}}、,{“value”:“CMT”,“order”:2,“name”:“conference_management_system”,“label”:“会议管理系统”,“group”:{“name”:“ConfEventPeerReviewInformation”,“标签”:“同侪审查信息(由会议组织者提供)”}},{“value”:“5804”,“订单”:3,“name):”number_of_submissions_sent_for_Review“,”label“:”提交审查的次数“,“group”:{“name”:“ConfEventPeerReviewInformation”,“label”:“Peer Review Information(由会议组织者提供)”}},{“value”:“1645”,“order”:4,“name”:“number_of_full_papers_accepted”,“标签”:“已接受的全文数”,“组”::“同行评审信息(由会议组织者提供)”}},{“value”:“0”,“order”:5,“name”:“number_of_short_papers_accepted”,“label”:“接受的短文数量”,“group”:{“name”:“ConfEventPeerReviewInformation”,“label”:“同行评审信息(由会议组织者提供)”}},{“value”:“28%-该值由等式“已接受的全文数”计算,然后四舍五入为整数。”,“order”:6,“name”:“acceptance_rate_of_Full_Papers”,“label”:“全文接受率”,“group”:{“name”:“ConfEventPeerReviewInformation”,“标签”:“同行评议信息(由会议组织者提供)”}},{“value”:“3.21”,“order”:7,“name”:“average_number_of_reviews_per_paper”,“label”:“每篇论文的平均评论数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“table”:“同行评审信息(由大会组织者提供):“average_number_of_papers_per_reviewer”,“label”:“每位审阅者的平均论文数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“table”:“同行审阅信息(由会议组织者提供)”}},{“value”:“Yes”,“order”:9,“name”:“external_reviewers_involved”:“ConfEventPeerReviewInformation”,“label”:“同行评审信息(由会议组织者提供)”}}]}}