{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期部分”:[[2024,6,9]],“日期时间”:“2024-06-09T05:16:52Z”,“时间戳”:1717910212667},“发布者位置”:“Cham”,“引用计数”:38,“发布商”:“Springer Nature Switzerland”,“isbn类型”:[{“值”:“9783031197802”,“type”:“打印”},{“值”:“9783031197819”,“类型”:“electronic”}],“license”:[{“start”:{“date-parts”:[[2022,1,1]],“date-time”:“2022-01-01T00:00:00Z”,“timestamp”:1640995200000},“content-version”:“tdm”,“delay-in-days”:0,“URL”:“https:\\/www.springer.com\/tdm”}:1640995200000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“https:\\/www.springer.com//tdm”},{“start”:{“date-parts”:[2022,1,1]],“date-time”:“2022-01-01T00:00:00Z”,“timestamp”:1640995200000},“content-version”:“tdm”,“delay-in-days”:0,“URL”:“https:\/\/www.splingernature.com\/gp\/researters\/text-and-data-mining”}],“日期-时间”:“2022-01-01T00:00:00Z”,“时间戳”:1640995200000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“https://www.springernature.com//gp\/researters\/text-and-data-mining”}],“content-domain”:{“domain”:[“link.springer.com”],“crossmark-restriction”:false},”short-container-title“:[],”published-print“:{”date-parts“:[2022]]},‘DOI’:“10.1007\/978-3-0”31-19781-9_12“,”type“:”book-chapter“,“created”:{“date-parts”:[[2022,10,22]],“date-time”:“2022-10-22T12:12:59Z”,“timestamp”:1666440779000},“page”:“198-214”,“update-policy”:”http://\/dx.doi.org\/10.1007\/springer_crossmark_policy“,”source“:”Crossref“,“is-referenced-by-count”:13,“title”:[“PASS:Part-Aware Self-Ministrated Pre-Training for \u00a0 Person Re-Identification“],”前缀“:”10.1007“,“作者”:[{“ORCID”:“http://\/ORCID.org\/0000-0002-1670-944X”,“authenticated-ORCID”:false,“给定”:“宽”,“族”:“朱”,“序列”:“第一”,“从属关系”:[]},{“ORCID”:“http://\-ORCID.org \/00000-0001-9241-6211”,“authenticated-ORCID“:false”,“给定的”:“海云”,“家族”:“郭”,”序列“:“附加”,“附属关系”:[]},{“ORCID”:“http://\/orcid.org\/00000-0003-3685-2566”,“authenticated-orcid”:false,“given”:“Tianyi”,“family”:“Yan”,“sequence”:“additional”,“affiliation”:[]},{“orcid”:\\/orcid.org\\0000-0002-9118-2780“,“authenticated-orcid”:false,“given”:“Jinqiao”,“family”:“Wang”,“sequence”:“additional”,“affiliation”:[]},{“orcid”:”http://\/orcid.org\/00000-0003-4976-3095“,”authenticationd-ocid“:false”,“giving”:“Ming”,“家人”:“Tang”,”sequence“:“addressive”,“ability”:[],“member”:“297”,“published-on-line”:{“date-parts”:[2022,10,23]]},“引用”:[{“键”:“12_CR1”,“非结构化”:“Caron,M.、Misra,I.、Mairal,J.、Goyal,P.、Bojanowski,P.和Joulin,A.:通过对比聚类赋值对视觉特征进行无监督学习。arXiv预印本arXiv:2006.09882(2020)”},{“key”:“12_CR2”,“doi-asserted-by”:“crossref”,“非结构性”:“Caron,M.、Touvron,H.、Misra,I.、J\u00e9gou,H.,Mairal,J.、Bojanowski,P.、Joulin,A.:自监督视觉变换器中的新兴特性。arXiv预印本arXiv:2104.14294(2021)”,“DOI”:“10.1109\/ICCV48922.2021.00951”},{“key”:“12_CR3”,“DOI-asserted-by”:“crossref”,“unstructured”:“Chen,T.,Ding,S.,Xie,J.,Yuan,Y.,Chen,W.,Yang,Y.,Ren,Z.,Wang,Z.:Abd net:专注但多样化的人重新识别。在:IEEE国际计算机视觉会议记录(2019)”,“DOI”:“10.1109\/ICCV.2019.00844”},{“key”:“12_CR4”,“非结构化”:“Chen,X.,Fan,H.,Girshick,R.,He,K.:通过动量对比学习改进基线。arXiv预印本arXiv:2003.04297(2020)”},{“key”:“12_CR5”,“doi-asserted-by”:“crossref”,“unstructured”:“Chen,X.,Xie,S.,He,K.:训练自我监督视觉变换器的实证研究。摘自:IEEE计算机视觉国际会议论文集,第9640\u20139649(2021)页”,“DOI”:“10.1109\/ICCV48922.2021.00950”},{“key”:“12_CR6”,“DOI-asserted-by”:“crossref”,“unstructured”:“Chen,X.,Fu,C.,Zhao,Y.,Zheng,F.,Song,J.,Ji,R.,Yang,Y.:用于人再识别的Salience引导级联抑制网络。摘自:IEEE计算机视觉和模式识别会议论文集,pp.3300\u20133310(2020)”,“DOI”:“10.1109\/CVPR42600.2020.00336”},{“key”:“12_CR7”,“非结构化”:“Dai,Z.,Wang,G.,Zhu,S.,Yuan,W.,Tan,P.:无监督人员重新识别的聚类对比。arxiv 2021。arXiv预印本arXiv:2103.11568(2021)“},{“key”:“12_CR8”,“doi-asserted-by”:“crossref”,“unstructured”:“Deng,J.,Dong,W.,Socher,R.,Li,L.J.,Li.,K.,Fei-Fei,L.:Imagenet:大型分层图像数据库。In:2009 IEEE Conference on Computer Vision and Pattern Recognition,pp.248\u2013255。IEEE(2009)“,“DOI”:“10.1109\/CVPR.2009.5206848”},{“key”:“12_CR9”,“unstructured”:“Devlin,J.,Chang,M.W.,Lee,K.,Toutanova,K.:Bert:语言理解深度双向变换器的预训练。摘自:NAACL-HLT会议录,第4171\u20134186页(2019)”}Dosovitskiy,A.、Beyer,L.、Kolesnikov,A.、Weissenborn,D.、Zhai,X.、Unterthiner,T.、Dehghani,M.、Minderer,M.,Heigold,G.、Gelly,S.等人:图像值16x16个单词:用于大规模图像识别的变形金刚。arXiv预印本arXiv:2010.11929(2020)“},{“key”:“12_CR11”,“doi-asserted-by”:“crossref”,“unstructured”:“Fu,D.,et al.:人员再识别的无监督预培训。摘自:IEEE\/CVF计算机视觉和模式识别会议论文集,第14750\u201314759(2021)页”,“doi”:“10.1109\/CVPR46437.2021.01451”},}非结构化“:”Ge,Y.,Chen,D.,Li,H.:共同意思教学:在无监督的领域适应中对人的重新识别进行伪标签精炼。arXiv预印本arXiv:2001.01526(2020)“},{“key”:“12_CR13”,“unstructured”:“Ge,Y.,Zhu,F.,Chen,D.,Zhao,R.,Li,H.:针对域自适应对象re-id的混合内存的自定步调对比学习。arXiv预先印本arX iv:2006.02713(2020)”},},“key“:”12_CR14“,“首页”:“21271”,“卷”:“33”,“作者”:“JB Grill”,“年份”:“2020”,“非结构化”:“Grill,J.B.、Strub,F.、Altch\u00e9,F.,Tallec,C.、Richemond,P.、Buchatskaya,E.、Doersch,C.、Avila Pires,B.、Guo,Z.、Gheshlaghi Azar,M.等人:引导自己的潜能——一种新的自主学习方法。高级神经。信息处理。系统。33,21271\u201321284(2020)“,“新闻标题”:“高级神经。信息处理。系统。“},{”key“:”12_CR15“,”doi asserted by“:”crossref“,”unstructured“:”Guo,H.,Wu,H.,Zhao,C.,Zhang,H.,Wang,J.,Lu,H.:用于人的重新识别的级联注意力网络。In:2019 IEEE国际图像处理会议(ICIP),pp.2264\u20132268。IEEE(2019)“,“DOI”:“10.1109\/ICIP.2019.8803244”},{“key”:“12_CR16”,“DOI-asserted-by”:“crossref”,“unstructured”:“He,K.,Fan,H.,Wu,Y.,Xie,S.,Girshick,R.:无监督视觉表征学习的动量对比。摘自:IEEE计算机视觉与模式识别会议记录,pp.9729\u20139738(2020)”,“DOI:”10.1109\/CVPR42600.2020.00975“},{“key”:“12_CR17”,“doi-asserted-by”:“crossref”,“unstructured”:“He,K.,Zhang,X.,Ren,S.,Sun,J.:图像识别的深度剩余学习。摘自:IEEE计算机视觉与模式识别会议论文集,第770\u2013778页(2016)”,“doi”:“10.1109\/CVPR.2016.90”},},“key“:”12_CR18“,”非结构化“:”He,L.,Liao,X.,Liu,W.,Liou,X..,Cheng,P.,Mei,T.:Fastreid:用于一般实例重新识别的pytorch工具箱。arXiv预印本arXiv:2006.02631(2020)“},{“key”:“12_CR19”,“doi-asserted-by”:“crossref”,“unstructured”:“He,S.,Luo,H.,Wang,P.,Wag,F.,Li,H,Jiang12_CR20“,“非结构化”:“Hermans,A.,Beyer,L.,Leibe,B.:为人的重新身份识别三胞胎损失辩护。arXiv预印本arXiv:1703.07737(2017)“},{“key”:“12_CR21”,“doi-asserted-by”:“crossref”,“unstructured”:“Kalayeh,M.M.,Basaran,E.,G\u00f6kmen,M.,Kamasak,M.E.,Shah,M.:用于人的重新识别的人类语义分析。摘自:IEEE计算机视觉和模式识别会议记录,pp.1062\u20131071(2018)”,“doi”:“10.1109\/CVPR.2018.00117“},{“key”:“12_CR22”,“doi-asserted-by”:“crossref”,“unstructured”:“Luo,H.,Gu,Y.,Liao,X.,Lai,S.,Jiang,W.:技巧之袋和深度人物再识别的强大基线。摘自:IEEE计算机视觉和模式识别研讨会会议记录,pp.0\u20130(2019)”,“doi”:“10.1109\/CVPRW.2019.00190“},{“key”:“12_CR23”,“unstructured”:“Luo,H.,Wang,P.,Xu,Y.,Ding,F.,Zhou,Y.Wang,F..,Li,H..,Jin,R.:基于变压器的人员重新身份验证的自我监督预培训。arXiv预印本arXiv:2111.12084(2021)”},},“key“:”12_CR24“,”doi-asserted-by“:”crossref“,”unstructure“:”Pan,X.,Luo,P.,Shi,J.,Tang,X.:两次:通过ibn-net提高学习和泛化能力。摘自:《欧洲计算机视觉会议论文集》(ECCV),第464\u2013479页(2018年)“,“DOI”:“10.1007\/978-3-030-01225-0_29”},{“key”:“12_CR25”,“DOI-asserted-by”:“crossref”,“unstructured”:“Sun,Y.,Zheng,L.,Yang,Y.、Tian,Q.,Wang,S.:超越部分模型:基于精细部分池(和强卷积基线)的人员检索。摘自:《欧洲计算机视觉会议论文集》,第480\u2013496页(2018)“,“DOI”:“10.1007\/978-3-030-01225-0_30”},{“key”:“12_CR26”,“unstructured”:“Vaswani,A.等人:注意就是你所需要的。摘自《第三十一届神经信息处理系统国际会议论文集,第6000\u20136010页(2017)”}、{“key”:12_CR27“,”doi-asserted-by“:”crossref“,”unstructured“:”Wang,D.,Zhang,S.:通过多标签分类进行无监督人员重新识别。收录于:IEEE计算机视觉和模式识别会议论文集,第10981\u201310990(2020)页,“DOI”:“10.1109”,{“key”:“12_CR28”,“DOI-asserted-by”:“crossref”,“unstructured”:“Wang,G.,Yuan,Y.,Chen,X.,Li,J.,Zhou,X.:学习具有多重粒度的辨别特征以进行人的重新识别。摘自:2018 ACM多媒体会议,第274\u2013282页。ACM(2018)“,”DOI“:”10.1145 \/3240508.3240552“},{”key“:”12_CR29“,”DOI-asserted-by“:”crossref“,”unstructured“:”Wei,L.,Zhang,S.,Gao,W.,Tian,Q.:“人转移gan以弥合人的重新身份识别领域鸿沟。摘自:IEEE计算机视觉和模式识别会议记录,pp.79\u201388(2018)”,“DOI”:“10.1109\/CVPR.2018.00016“},{“key”:“12_CR30”,“doi-asserted-by”:“crossref”,“unstructured”:“Wu,Y.,et al.:域自适应个人re-id的多中心表示网络。In:AAAI人工智能会议论文集(2022)”,“doi”:“10.1609 \/AAAI.v36i3.20178”},},“key“:”12_CR31“非结构化”:“Xie,Z.等:使用swin transformers进行自我监督学习。arXiv预印本arXiv:2105.04553(2021)“},{“key”:“12_CR32”,“doi-asserted-by”:“crossref”,“unstructured”:“Xuan,S.,Zhang,S.:无监督人员重新识别的内窥镜相似性。摘自:IEEE\/CVF计算机视觉和模式识别会议记录,第11926\u201311935(2021年)页”,“doi”:“10.1109\/CVPR46437.2021.01175“},{“key”:“12_CR33”,“doi-asserted-by”:“crossref”,“unstructured”:“Zeng,K.,Ning,M.,Wang,Y.,Guo,Y.:用于人的重新识别的带有硬备份三重态损失的层次聚类。摘自:IEEE\/CVF计算机视觉和模式识别会议论文集,第13657\u201313665页(2020)”,“doi”:“10.1109 \/CVPR42600.2020.01367“},{“key”:“12_CR34”,“doi-asserted-by”:“crossref”,“unstructured”:“Zheng,L.,Shen,L.、Tian,L.和Wang,S.,Wang,J.,Tian,Q.:可缩放的人重新识别:基准。摘自:计算机视觉,IEEE国际计算机视觉会议,第1116\u20131124(2015)页”,“doi”:“10.1109”,ICCV.2015.1312_CR35“,”doi-asserted-by“:”publisher“,”unstructured“:”Zhu,K.,Guo,H.,Liu,S.,Wang,J.,Tang,M.:学习语义一致的条纹和自我修饰,用于人的重新识别。IEEE传输。神经网络学习。系统。,2013年1月12日(2022年)。https:\/\/doi.org\/10.109\/TNNLS.2022.3151487“,”doi“:”10.1109\/TNLS.2022.3151487“},{“key”:“12_CR36”,“doi-asserted-by”:“crossref”,“unstructured”:“Zhu,K.,Guo,H.,Liu,Z.,Tang,M.,Wang,J.:用于人员重新识别的身份识别的身份引导人类语义分析,第346\u2013363(2020)页”,“doi”:“10.1007\/978-3030-580-8_21”},{“键”:“12_CR37”,“非结构化”:“Zhu,K.等人:AAformer:用于人员重新识别的自动对齐变换器。arXiv预印本arXiv:2104.00921(2021)“},{“key”:“12_CR38”,“doi-asserted-by”:“crossref”,“unstructured”:“Zou,Y.,Yang,X.,Yu,Z.,Kumar,B.,Kautz,J.:跨域人重新识别的联合解纠缠和适应。摘自:欧洲计算机视觉会议,第87页\u2013104。Springer(2020)“,”DOI“:”10.1007\/978-3-030-58536-5_6“}],”container-title“:[”计算机科学讲义“,”Computer Vision\u2013 ECCV 2022“],”original-title”:[],”link“:[{”URL“:”https:\/\/link.Springer.com\/content\/pdf\/10007\/978-3-031-19781-9_12“,”content-type“:”unspecified“,”content-version“:”vor“,”intended-application“:”相似性检查“}”,“存放”:{“日期部分”:[[2024,3,12]],“日期时间”:“2024-03-12T16:33:08Z”,“时间戳”:1710261188000},“分数”:1,“资源”:{“主要”:}“URL”:“https:\/\/link.springer.com\/10.1007\/978-3-031-19781-9_12”},”副标题“:[],”短标题“:[],”已发布“:{”日期部分“:[2022],“ISBN”:[“9783031197802”,“97830.31197819”],“references count“:38,”URL“:”http:\/\/dx.doi.org/10.1007\/978-3-031-19781-9_12“,”relationship“:{},”ISSN“:[”0302-9743“,”1611-3349“],”ISSN type“:[{”value“:”0302-9743“,”type“:”print“},”value“:”1611-3349“,”type“:”electronic“}],”subject“:[],”published“:{”date parts“:[[2022]]},”assertion“:[{”value“:”2022年10月23日“,”order“:1,”name“:”first_online“,”label“:”First Online”,“group”:{“name”:“ChapterHistory”,“label”:“章节历史”}},{“value”:“ECCV”,“order”:1,“name”:“conference_acrombit”,“table”:“conference-Acromnim”,“群名”:{name“:”ConferenceInfo“,”label“:”会议信息“}}”,{value“:”欧洲计算机视觉会议“,”order“:2,“namename“:”ConferenceInfo“,”label“:”会议信息“}},{“value”:“Tel Aviv”,“order”:3,“name”:“Conference_city”,“label”:“ConferenceCity”,“group”:{“name”:“ConferenceInfo”,“标签”:“会议信息”}}、{“值”:“Israel”,“订单”:4,“name“Conference_country”,“table”:“MeferenceCountry”会议信息“}},{”value“:”2022“,”order“:5,”name“:”Conference_year“,”label“:”Conference_year“,“group”:{“name”:“ConferenceInfo”,“label”:“会议信息”}}、{“value”:“2022年10月23日”,“order”:7,“name”:“Conference_start_date”,:“2022年10月27日“,”order“:8,”name“:”conference_end_date“,”label“:”会议结束日期“,”group“:名称“:”conference_id“,”label“:”会议id“,”group“:{”name“:”ConferenceInfo“,”label“:“会议信息”}},{”value“:”https:\/\/eccv2022.ecva.net\/“,”order“:11,”name“:”conference_0rl“,“label”:“会议url”,“group”:{“type”,“label”:“type”,“group”:{name“:”ConfEventPeerReviewInformation“,”label“:”同行评审信息(由会议组织者提供)“}},{“value”:“CMT”,“order”:2,“name”:“conference_management_system”,“label”:“会议管理系统”,“group”:value“:”5804“,”order“:3,”name“:”number_of_submissions_sent_for_review“,”label“:”发送供审阅的提交数“,”group“:接受的全文数“,”组“:{“name”:“ConfEventPeerReviewInformation”,“label”:“同行评审信息(由会议组织者提供)”}},{“value”:“0”,“order”:5,“name”:“Number_of_short_Papers_Accepted”,“table”:“接受的短文数”,“group”:{同行评议信息(由会议组织者提供)“}},{“value”:“28%-该值由等式“接受的全文数”/“发送供审阅的提交数*100”计算,然后四舍五入为整数。”,“order”:6,“name”:“acceptance_rate_of_Full_Papers”,“label”:“全文接受率”,“group”:{“name”ConfEventPeerReviewInformation“,”label“:”同行评审信息(由会议组织者提供)},{“value”:“3.91”,“order”:8,“name”:“average_number_of_papers_per_reviewer”,“label”:“每位评审员的平均论文数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“label”:“同行评审信息(由会议组织者提供)”}},{“value”:“Yes”,“order”:9,“name”:“external_reviewers_involved”,“label”:“涉及的外部评审员”,“group”:{“name”:“ConfEventPeerReviewInformation”,“label”:“同行评审信息(由会议组织者提供)”}}]}}