{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期部分”:[[2024,4,10]],“日期时间”:“2024-04-10T06:43:22Z”,“时间戳”:1712731402282},“出版商位置”:“查姆”,“参考计数”:42,“出版者”:“斯普林格自然瑞士”,“isbn-type”:[{“值”:“9783031198021”,“类型”:”打印“},{“值”:“9783031198038”,“类型”:“electronic”}],“license”:[{“start”:{“date-parts”:[[2022,1,1]],“date-time”:“2022-01-01T00:00:00Z”,“timestamp”:1640995200000},“content-version”:“tdm”,“delay-in-days”:0,“URL”:“https:\\/www.springer.com\/tdm”}:1640995200000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“https://\\www.springer.com\/tdm”},{“开始”:{“日期部分”:[[2022,1,1]],“日期时间”:“2022-01-01T00:00:00Z”,“时间戳”:1640995200000},“内容版本”:“tdm”,“延迟天数”:0,“URL”:“https://\\www.springer.com\/gp\/researchers\/text and data mining”},{“开始”:{“日期部分”:[[2022,1,1]],“日期时间”:“2022-01-01T00:00:0 0Z”,“时间戳”:1640995200000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“https://www.springernature.com//gp\/researters\/text-and-data-mining”}],“content-domain”:{“domain”:[“link.springer.com”],“crossmark-restriction”:false},”short-container-title“:[],”published-print“:{”date-parts“:[2022]]},‘DOI’:“10.1007\/978-3-0”31-19803-8_31“,”type“:”book-chapter“,“created”:{“date-parts”:[[2022,10,22]],“date-time”:“2022-10-22T13:05:16Z”,“timestamp”:1666443916000},“page”:“523-539”,“update-policy”:”http://\/dx.doi.org\/10.1007\/springer_crossmark_policy“,”source“:”Crossref“,“is-referenced-by-count”:8,“title”:[“ConCL:概念对比学习\u00a0密集预测预训练u00a0病理图像“],“前缀”:“10.1007”,“作者”:[{“给定”:“家卫”,“家族”:“杨”,“序列”:“第一”,“隶属关系”:[]},{“给定”:“韩波”,“家族”:“陈”,“序列”:“附加”,“隶属关系”:[]},{“给定”:“元”,“家族”:“梁”,“序列”:“附加”,“隶属关系”:[]},{“给定”:“军州”,“家族”:“黄”,“序列”:“附加”,“隶属关系”:[]},{“给定”:“雷”,“family”:“He”,“sequence”:“additional”,“affiliation”:[]},{“given”:“Jianhua”,“failment”:“Yao”,“serquence”:“additionable”,“abfiliance”:[]}],“member”:“297”,“published-online”:{“date-parts”:[2022,10,23]]};“reference”:[{“key”:”31_CR1“,”doi-asserted-by“:”crossref“,“unstructured”:“Arbel\u00e1ez,P.,Pont-Tuset,J.,Barron,J.T.,Marques,F.,Malik,J.:多尺度组合分组。摘自:IEEE计算机视觉和模式识别会议论文集,第328\u2013335页(2014)”,“DOI”:“10.1109\/CVPR.2014.49”},{“key”:“31_CR2”,“非结构化”:“Caron,M.、Misra,I.、Mairal,J.、Goyal,P.、Bojanowski,P.和Joulin,A.:通过对比聚类赋值对视觉特征进行无监督学习。arXiv预印本arXiv:2006.09882(2020)”},{“key”:“31_CR3”,“非结构化”:“Chen,T.,Kornblith,S.,Norouzi,M.,Hinton,G.:视觉表征对比学习的简单框架。摘自:机器学习国际会议,第1597\u20131607页。PMLR(2020)“},{“key”:“31_CR4”,“unstructured”:“Chen,X.,Fan,H.,Girshick,R.,He,K.:使用动量对比学习改进基线。arXiv预印本arXiv:2003.04297(2020)”},},“key“:”31_CR5“,”doi-asserted-by“:”crossref“,“unsructured“:”Chen,X.,He,K.:探索简单连词表征学习。收录于:IEEE计算机视觉和模式识别会议论文集,第15750\u201315758(2021)页,“DOI”:“10.1109\/CVPR46437.2021.01549”},{“key”:“31_CR6”,“unstructured”:“Ciga,O.,Xu,T.,Martel,A.L.:数字组织病理学的自我监督对比学习。arXiv预印本arXiv:2011.13971(2020)”}31_CR7“,”doi-asserted-by“:”publisher“,”first page“:”167“,“doi”:“10.1023\/B:VISI.00022288.19776.77”,“volume”:“59”,“author”:“PF Felzenszwalb”,“year”:“2004”,“unstructured”:“Felzenszwalb,P.F.,Huttenlocher,D.P.:高效的基于图形的图像分割。国际期刊计算。Vision 59(2),167\u2013181(2004)“,“期刊标题”:“国际计算杂志”。Vision“},{“key”:“31_CR8”,“doi-asserted-by”:“crossref”,“unstructured”:“Girshick,R.,Donahue,J.,Darrell,T.,Malik,J.:精确对象检测和语义分割的丰富特征层次。摘自:IEEE计算机视觉和模式识别会议论文集,第580\u2013587页(2014)”,“doi”:“10.1109\/CVPR.2014.81”}31_CR9“,”doi-asserted-by“:”publisher“,”first page“:”199“,“doi”:“10.1016\/j.media.2018.12.001”,“volume”:“52”,“author”:“S Graham”,“year”:“2019”,“unstructured”:“Graham,S.,et al.:MILD-Net:结肠组织学图像中腺体实例分割的最小信息损失扩张网络。医学图像分析。52,199\u2013211(2019)“,“新闻标题”:“医学图像分析。“},{”key“:”31_CR10“,”非结构化“:”Grill,J.B.等人:引导你自己的潜能:一种自我监督学习的新方法。arXiv预印本arXiv:2006.007733(2020)“},{”key“:”31_CR11“,”非结构化“:”Hadsell,R.,Chopra,S.,LeCun,Y.:通过学习不变映射降低维数。2006年IEEE计算机学会计算机视觉和模式识别会议(CVPR 2006),第2卷,第1735\u20131742页。IEEE(2006)“},{“key”:“31_CR12”,“doi-asserted-by”:“crossref”,“unstructured”:“He,K.,Fan,H.,Wu,Y.,Xie,S.,Girshick,R.:无监督视觉表征学习的动量对比。摘自:IEEE计算机视觉与模式识别会议论文集,pp.9729\u20139738(2020)”,“doi”:“10.1109\/CVPR42600.2020.00975”},}key“:”31_CR13“,”doi-asserted-by“:”crossref“,”unstructured“:”He,K.,Girshick,R.,Doll\u00e1r,P.:重新思考图像网预训练。收录于:IEEE计算机视觉国际会议论文集,第4918\u20134927(2019)页“,”DOI“:”10.1109\/ICCV.2019.00502“},{“key”:“31_CR14”,“DOI-asserted-by”:“crossref”,“unstructured”:“He,K.,Gkioxari,G.,Doll\u00e1r,P.,Girshick,R.:面具R-CNN。摘自:IEEE计算机视觉国际会议论文集,第2961\u20132969页(2017)“,“DOI”:“10.1109\/ICCV.2017.322”},{“key”:“31_CR15”,“DOI-asserted-by”:“crossref”,“unstructured”:“He,K.,Zhang,X.,Ren,S.,Sun,J.:图像识别的深度剩余学习。摘自:IEEE计算机视觉和模式识别会议记录,第770\u2013778页(2016)“,“DOI”:“10.1109\/CVPR.2016.90”},{“key”:“31_CR16”,“DOI-asserted-by”:“crossref”,“unstructured”:“H\u00e9naff,O.J.,Koppula,S.,Alayrac,J.B.,Oord,A.V.D.,Vinyals,O.,Carreira,J.:对比检测的有效视觉预训练。arXiv预印本arXiv:2103.10957(2021)“,“DOI”:“10.1109\/ICCV48922.2021.00993”},{“key”:“31_CR17”,“DOI-asserted-by”:“publisher”,“unstructured”:“Kather,J.N.,Halama,N.,Marx,A.:人类结直肠癌和健康组织的100000张组织学图像,2018年4月。https:\/\/doi.org\/10.5281\/zenodo.1214456“,”doi“:”10.5281\/zenodo.1214456“},{“问题”:“10”,“密钥”:“31_CR18”,“doi-asserted-by”:“发布者”,“首页”:“2845”,“doi”:“10.1109\/TMI.2021.3056023”,“卷”:“40”,“作者”:“NA Koohbanani”,“年份”:“2021”,“非结构化”:“Koohbanani,N.A.、Unnikrishnan,B.、Khurram,S.A.、Krishnaswamy,P.、Rajpoot,N.:自我路径:有限注释的病理图像分类的自我监督。IEEE传输。医学成像40(10),2845\u20132856(2021)“,“期刊标题”:“IEEE Trans。医学影像学“},{“key”:“31_CR19”,“unstructured”:“Li,J.,Zhou,P.,Xiong,C.,Hoi,S.C.:无监督表征的原型对比学习。arXiv预印本arXiv:2005.04966(2020)”},},“key“:”31_CR20“,”doi-asserted-by“:”crossref“,”unstructure“:”Lin,T.Y.,Doll\u00e1r,P.,Girshick,R.,He,K.,Hariharan,B.,Belongie,S.:目标检测的特征金字塔网络。摘自:IEEE计算机视觉和模式识别会议记录,第2117\u20132125页(2017)“,“DOI”:“10.1109\/CVPR.2017.106”},{“key”:“31_CR21”,“DOI-asserted-by”:“crossref”,“unstructured”:“Lin,T.Y.,Goyal,P.,Girshick,R.,He,K.,Doll\u00e1r,P.:密集目标检测的焦点丢失。摘自:IEEE计算机视觉国际会议论文集,第2980\u20132988页(2017)“,“DOI”:“10.1109\/ICCV.2017.324”},{“key”:“31_CR22”,“unstructured”:“Liu,S.,Li,Z.,Sun,J.:Self-EMD:无ImageNet.arXiv预印本arXiv:2011.13677(2020)”}Nguyen,D.T.等人:Deepusps:具有自我监督的深度稳健无监督显著性预测。arXiv预印本arXiv:1909.13055(2019)“},{“key”:“31_CR24”,“unstructured”:“Oord,A.V.D.,Li,Y.,Vinyals,O.:使用对比预测编码进行表征学习。arXiv预先印本arX iv:1807.03748(2018)”},},“key“:”31_CR25“,”doi-asserted-by“:”crossref“,”unstructure“:”Qin,X.,Zhang,Z.,Huang,C.,Gao,C.,Dehghan,M.,Jagersand,M.:Basnet:边界感知显著对象检测。摘自:IEEE计算机视觉和模式识别会议记录,第7479\u20137489(2019)页“,”DOI“:”10.1109\/CVPR.2019.00766“},{“key”:“31_CR26”,“first page”:”91“,”volume“:”28“,”author“:”S Ren“,”year“:”2015“,”unstructured“:”Ren,S.,He,K.,Girshick,R.,Sun,J.:更快的R-CNN:利用区域提议网络实现实时目标检测。高级神经。信息处理。系统。28,91\u201399(2015)”,“期刊标题”:“高级神经。信息处理。系统。“},{”key“:”31_CR27“,”doi-asserted-by“:”crossref“,”unstructured“:”Roh,B.,Shin,W.,Kim,I.,Kim首页“:”489“,”DOI“:”10.1016\/j.media.2016.08.008“,”卷“:”35“,”作者“:”K Sirinukunwattana“,”年份“:”2017“,”非结构化“:”Sirinukundawattana,K.等人:结肠组织学图像中的腺体分割:GlaS挑战赛。医学图像分析。35,489\u2013502(2017)“,“新闻标题”:“医学图像分析。“},{”key“:”31_CR29“,”doi-asserted-by“:”publisher“,”first page“:“101813”,”doi“:”10.1016\/j.media.2020.101813“,“volume”:“67”,“author”:“CL Srinidhi”,“year”:“2021”,“unstructured”:“Srinidhy,C.L.,Ciga,O.,Martel,A.L.:计算组织病理学的深层神经网络模型:调查。Med.Image Anal.67,101813(2021)”,“journal-title“:”医学。图像分析。“},{”key“:”31_CR30“,”doi-asserted-by“:”crossref“,”unstructured“:”Van Gansbeke,W.,Vandenhende,S.,Georgoulis,S.和Van Gool,L.:通过对比对象掩码提议进行无监督语义分割。arXiv预印本arXiv:2102.06191(2021)“,”doi“:”10.1109\/ICCCV48922.2021.00990“Vincent,P.,Larochelle,H.,Bengio,Y.,Manzagol,P.A.:使用去噪自动编码器提取和合成鲁棒特征。摘自:《第25届国际机器学习会议论文集》,第1096\u20131103页(2008)“,“DOI”:“10.1145\/1390156.1390294”},{“key”:“31_CR32”,“DOI-asserted-by”:“crossref”,“unstructured”:“Wang,W.,Zhou,T.,Yu,F.,Dai,J.,Konukoglu,E.,Van Gool,L.:探索用于语义分割的跨图像像素对比度。arXiv预打印arXiv:2101.11939(2021)“,”DOI“:”10.1109\/ICCV48922.2021.00721“},{”key“:”31_CR33“,”DOI-asserted-by“:”crossref“,”unstructured“:”Wang,X.,Zhang,R.,Shen,C.,Kong,T.,Li,L.:针对自我监督视觉预训练的密集对比学习。收录于:IEEE计算机视觉和模式识别会议记录,第3024\u20133033(2021)页,“DOI”:“10.1109”,{“key”:“31_CR34”,“DOI-asserted-by”:“crossref”,“unstructured”:“Wu,Z.,Xiong,Y.,Yu,S.X.,Lin,D.:通过非参数实例判别的无监督特征学习。摘自:IEEE计算机视觉和模式识别会议记录,第3733\u20133742页(2018)“,“DOI”:“10.1109\/CVPR.2018.00393”},{“key”:“31_CR35”,“DOI-asserted-by”:“crossref”,“unstructured”:“Xie,E.等:DetCo:用于物体检测的无监督对比学习。收录于:IEEE计算机视觉国际会议论文集,第8392\u20138401(2021)页,“DOI”:“10.1109”,{“key”:“31_CR36”,“DOI-asserted-by”:“crossref”,“unstructured”:“谢,Z,林,Y,张,Z,曹,Y,林,S,胡,H:宣传自己:探索无监督视觉表征学习的像素级一致性。摘自:IEEE计算机视觉和模式识别会议记录,第16684\u201316693(2021)页,“DOI”:“10.1109”,{“key”:“31_CR37”,“DOI-asserted-by”:“crossref”,“unstructured”:“Yang,C.,Wu,Z.,Zhou,B.,Lin,S.:自我监督检测预训练的实例本地化。摘自:IEEE计算机视觉和模式识别会议论文集,第3987\u20133996(2021)页,“DOI”:“10.1109\/CVPR46437.2021.00398”},{“key”:“31_CR38”,“unstructured”:“Zbontar,J.,Jing,L.,Misra,I.,LeCun,Y.,Deny,S.:Barlow双胞胎:通过冗余减少实现自我监督学习。arXiv预印本arXiv:2103.03230(2021key“:”31_CR39“,”series-title“:”计算机科学课堂讲稿“,”doi-asserted-by“:”publisher“,”first page“:“649”,”doi“:”10.1007\/978-3319-46487-9_40“,”volume-title“:“Computer Vision\u2013 ECCV 2016”,”author“:”R Zhang“,”year“:”2016“,”unstructured“:”Zhang,R.,Isola,P.,Efros,A.A.:彩色图像着色。收录人:Leibe,B.,Matas,J.,Sebe,N.,Welling,M.(编辑)ECCV 2016。LNCS,第9907卷,第649\u2013666页。查姆施普林格(2016)。https:\/\/doi.org/10.1007\/978-3-319-46487-9_40“},{“key”:“31_CR40”,“doi断言”:“crossref”,“非结构化”:“Zhang,R.,Isola,P.,Efros,A.A.:分裂大脑自动编码器:通过跨通道预测进行无监督学习。在:IEEE计算机视觉和模式识别会议论文集,pp.1058\u20131067(2017)”,“doi”:“10.1109\/CVPR.2017.76“},{“key”:“31_CR41”,“unstructured”:“Zhao,N.,Wu,Z.,Lau,R.W.,Lin,S.:提取自我监督表征学习的本地化。arXiv预印本arXiv:2004.06638(2020)”},},“key“:”31_CR42“,”doi-asserted-by“:”crossref“,”unstructure“:”Zhao,X.,et al.:用于标签高效语义分割的对比学习。摘自:IEEE\/CVF国际计算机视觉会议记录,第10623\u201310633(2021)页“,”DOI“:”10.1109\/ICCV48922.2021.01045“}],”container-title“:[”计算机科学讲义“,”Computer Vision\u2013 ECCV 2022“],”original title“:[],”link“:[{”URL“:”https:\/\/link.springer.com\/content\/pdf\/10.10007\/978-3031-19803-8_31“,”content-type“:”unspecified“,”content-version“:”vor“,”intended-application“:”similarity-checking“}],”deposed“:{”date-parts“:[[2023,4,27]],”date-time“:“2023-04-27T14:09:39Z”,”timestamp“:1682604579000},”score“:1,”resource“:{primary“:”URL“https:\/\/link.springer.com\/10007\/978-3-031-19803-8_31”}},“subtitle”:[],“短标题”:[],“已发布”:{“date-parts“:[[2022]]},”ISBN“:[”9783031198021“,”978301198038“],”references-count“:42,”URL“:”http://\/dx.doi.org\/10.1007\/978-3-031-19803-8_31“,“relationship”:{},“ISSN”:[“0302-9743”,“1611-3349”],“ISSN-type”:[{“value”:“032-9743”,“type”:“print”},{“value”:“1611-349”“,”type“:”electronic“}],”subject“:[],”published“:{”date-parts“:[2022]]},”assertion“:[{”value“:”2022年10月23日“,”order“:1,”name“:”first_online“,”label“:”first online“,“group”:{“name”:“ChapterHistory”,“label”:“chapterHiology”}},{“value”:“ECCV”,“order”:1,“name”:“conference_acrombior”,“tabel”:”conference acronym“,”group“:“ConferenceInfo”,”label:“Conferency Information”}}}、{“value”:“欧洲计算机视觉会议”,“order“:2,”name“:”conference_name“,”label“:”会议名称“,”group“:标签“:”会议国家/地区”,“组”:{“name”:“ConferenceInfo”,“label”:“会议信息”}},{“value”:“2022”,“order”:5,“名称”:“Conference_year”,“标签”:“会议年”,“group”:{name”:”ConferenceInformo“,”label“:”会议信息“}}”,{value“:”2022年10月23日“,”order“:7,”name“:”Conference_start_date“,”标签“:”“会议开始日期“,”group“:{”name“:“会议信息“,”标签“:”会议信息“}},{“value”:“2022年10月27日”,“order”:8,“name”:“Conference_end_date”,“label”:“会议结束日期”,“group”:{“name”:“ConferenceInfo”,标签“:“Conferency Information”}}会议信息“}},{“value”:“eccv2022”,“order”:10,“name”:“Conference_id”,“label”:“Conference id”,“group”:{“name”:“ConferenceInfo”,“标签”:“会议信息”}}会议信息“}},{”value“:”Double-blind“,”order“:1,”name“:”type“,”label“:”type“,”group“:同行评审信息(由会议组织者提供)“}},{“value”:“5804”,“order”:3,“name”:“number_of_submissions_sent_for_Review”,“label”:“发送供评审的提交数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“table”:“同行评审信息”(由会议主办方提供)number_of_full_papers_accepted“,”label“:”接受的全文数“,”group“:{”name“:”ConfEventPeerReviewInformation“,”标签“:”同行评审信息(由会议组织者提供)“}},{”value“:”0“,”order“:5,”name“:”number_ of_short_papers_Accepteded“,”table“:”已接受的短文数“,“group”:{“name”:“”ConfEventPeerReviewInformation“,”label“:”同行评审信息(由会议组织者提供)“}},{”value“:”28%-该值由等式“接受的全文数”/“发送供评审的提交数*100”计算,然后四舍五入为整数。“,”order“:6,”name“:”acceptance_rate_of_Full_Papers“,”标签“:”全文接受率“,”group“:{”name“:”ConfEventPeerReviewInformation“,”label“:”Peer Review Information(由会议组织者提供)“}},{”value“:”3.21“,”order“:7,”name“:”average_number_of_reviews_per_paper“,”标签“:”每篇论文的平均评论数“,”google“:同行评审信息(由会议组织者提供)external_reviewers_involved“,”label“:”涉及的外部审阅者“,”group“:{”name“:”ConfEventPeerReviewInformation“,”标签“:”同侪审阅信息(由会议组织者提供)“}},”value“:”从研讨会中,367篇已审阅的完整论文被选中发表“,”order“:10,”name“,”additional_info_on_Review_process“,”table“:”评审过程附加信息“,”组“:{“name”:“ConfEventPeerReviewInformation”,“label”:“同行评审信息(由会议组织者提供)”}}]}}