{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期部分”:[[2024,3,30]],“日期时间”:“2024-03-30T10:35:21Z”,“时间戳”:1711794921143},“参考计数”:69,“出版商”:“计算机协会(ACM)”,“问题”:“1s”,“资助者”:[{“DOI”:“10.13039\/501100001809”,“名称”:“中国国家自然科学基金”,“doi-asserted-by”:“crossref”,“award”:[“62072027,61872032,62076021”]},{“name”:“北京自然科学基金会”,“adward”:[”4202057,4202058,4202060“]}],“content-domain”:{“domain”:[“dl.acm.org”],“crossmark-restriction”:true},“short-container-title”:[“ACM Trans.Multimedia Compute.Commun.Appl.”],“published-print”:{“date-parts”:[[2022,2,28]]},“abstract”:“广泛使用的监控摄像头已经产生了大量的街道场景数据,其中包含一个重要但长期被忽视的对象:车辆。在这里,我们重点讨论了具有挑战性的车型验证问题。以前的大多数工作通常使用全局特征(例如,完全连接的特征)来进一步执行车辆级深度度量学习(例如,基于三元组的网络)。然而,我们认为,值得注意的是要调查局部特征的显著性,并通过尽可能减少类内方差来考虑车辆-部分级别的度量学习。在本文中,我们介绍了一个简单而强大的深度模型\u2014,即强制类内对齐网络(EIA-Net)\u2014,它可以通过定位关键车辆部件并结合两个距离度量(车辆级嵌入和车辆部件敏感嵌入)来学习更具鉴别力的图像表示。对于学习特征,我们提出了一个有效的特征提取模块,该模块由两部分组成:基于区域建议网络(RPN)的网络和基于部分的CNN。RPN用于定义关键车辆区域并聚合这些区域上的局部特征,而基于部分的CNN为基于RPN的网络提供补充的全局特征。特征提取模块学习的融合特征被投射到深度度量学习模块中。特别是,我们通过重新利用关键车辆零件信息来增强减少类内方差,从而导出了一个强制的类内对齐损失。此外,我们通过增大类间方差而缩短类内方差来修改耦合的簇损失来建模车辆级嵌入。对基准数据集VehicleID和CompCars进行的大量实验表明,所提出的EIA-Net大大优于最先进的车辆模型验证方法。此外,我们还在车辆重新识别数据集(即VehicleID和VeRi776)上进行了全面的实验,以验证我们提出的方法的泛化能力有效性<\/jats:p>“,”DOI“:”10.1145\/3474596“,”type“:”journal-article“,”created“:{”date-parts“:[2022,1,25]],”date-time“:”2022-01-25T15:06:00Z“,”timestamp“:1643123160000},”page“:“1-22”,“update-policy”:“http://\/dx.DOI.org\/10.1145\/crossmark-policy”,“source”:”Crossref“,”is-referenced-by-count“:3,”标题“:[”查看关键部件:通过判别表示模型验证车辆模型“],”前缀“:”10.1145“,”卷“:”18“,”作者“:[{”ORCID“:”http://\/ORCID.org\/00000-0001-8701-4074“,”authenticated-ORCID“:false,”给定“:”李谦“,“family”:“Liang”,“sequence”:“first”,“affiliation”:[{“name”:“北京交通大学,中国北京上元村“}]},{“给定”:“从严”,“家庭”:“郎”,“序列”:“附加”,“从属关系”:[{“名称”:“北京交通大学、上元村、中国”}]}.,{”给定“:“尊”,“家族”:“李”,“顺序”:“额外”,“附属关系”:[{“姓名”:“中国北京交通大学和上元村”}]{,“given“:”Jian“,”family“:”Zhao“,”sequence“:”additional“,”affiliation“:[{“name”:“中国北京北方电子设备研究所”}]},{“given”:“Tao”,“family”:“Wang”,“sequence”:“additional”,“affiliance”:[{'name“:”Beijing Catong University,Shangyuan Cun,China,Beijing]}“giving”:“Songhe”,“家庭”:“Feng”,”se序列“:”additional“”,“从属关系“:[{“name”:“北京交通大学,中国北京上元村”}]}],“member”:“320”,“published-on-line”:{“date-parts”:[[2022,1,25]]},“reference”:[{“issue”:“16”,“key”:“e_1_3_2_2_2”,“first page”:2019年”,“非结构化”:“S.Alfasly、Y.Hu、H.Li、T.Liang、X.Jin、B.Liu和Q.Zhao.2019。基于多标签的相似性学习用于车辆识别。IEEE Access 7,16(2019),2605\u20132616.“,”journal-title“:”IEEE Access“},{“key”:“e_1_3_2_3_2”,“doi-asserted-by”:“publisher”,“doi”:“10.1109\/TMM.2018.2796240”},“key“:”e_1_ 3_2_4_2“,”doi-assert-by“:”publisher“,3_2_5_2“,”首页“:”1“,”文章标题“:”DeepLab:使用深度卷积网、萎缩卷积和完全连接的CRF进行语义图像分割。“,”卷“:”21“,”作者“:”陈L.“,”年份“:”2016“,”非结构化“:”L.Chen、G.Papandreou、I.Kokkinos、K.Murphy和A.Yuille.2016。DeepLab:使用深度卷积网络、atrous卷积和完全连接的CRF进行语义图像分割。IEEE传输。模式分析。机器。智力。21,1(2016),1\u201313.“,“期刊标题”:“IEEE Trans。模式分析。机器。智力。“},{”key“:”e_1_3_2_6_2“,”volume-title“:”Proc.IEEE Conf.Comp.Vis.Patt.Recogn.“,”author“:”Chen W.“,“年份”:“2017年”,“非结构化”:“W.Chen,X.Chen、J.Zhang和K.Huang.2017。超越三胞胎丧失:一个深度四胞胎网络,用于人的重新识别。。程序中。IEEE配置。视觉。帕特。认可。},{“key”:“e_1_3_2_7_2”,“volume-title”:“Proc.IEEE Conf.Comp.Vis.Patt.Recogn.”,“author”:“Cheng D.”,“year”:“2016”,“unstructured”:“D.Cheng,Y.Gong,S.Zhou,J.Wang,and N.Zheng.2016”。通过基于多通道部件的CNN和改进的三重损失函数进行人的重新识别。程序中。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_8_2“,”doi-asserted-by“:”publisher“,”doi“:”10.1109\/CVPR.2005.202“}”,{“key”:“e_1_ 3_2_9_2”,“volume-title”:“Proc.IEEE Winter Appl.Compute.Vis.Workshops.”,“author”:“Cormier M.”,“year”:“2016”,“unstructured”:“M.Cormier,L.W.Sommer,and M.Teutsch.2016。基于广域运动图像外观特征的低分辨率车辆重新识别。程序中。IEEE冬季应用。计算。视觉。研讨会。“},{”key“:”e_1_3_2_10_2“,”doi-asserted-by“:”publisher“,”doi“:”10.1109\/TMM.2017.2724843“}”,{“key”:“e_1_ 3_2_11_2”,”volume-title“:”Proc.IEEE Int.Conf.Comp.Vis.“,“author”:“Lempitsky.A.Babenko and V.”,“year”:“2015”,“unstructured”:“A.Babenko and V.Lempitky.2015”。聚合深度卷积特征用于图像检索。程序中。IEEE国际协调委员会。视觉。“},{”key“:”e_1_3_2_12_2“,”doi-asserted-by“:”publisher“,”doi“:”10.1109\/TMM.2011.2170666“}“key”:”e_ 1_3_2“,”volume-title“:”Proc.Eur.Conf.Comp.Vis.“,“author”:“Gordo A.”,“year”:“2016”,“unstructured”:“A.Gordo,J.Almazan,J.Revaud,and D.Larlus.2016。深度图像检索:学习图像搜索的全局表示。程序中。欧洲会议公司。视觉。“},{”key“:”e_1_3_2_14_2“,”doi-asserted-by“:”publisher“,”doi“:”10.5555\/3504035.3504874“}“key”:”e_ 1_3_2“,“volume-title”:“Proc.IEEE Conf.Comp.Vis.Patt.Recogn.”,“author”:“He B.”,“year”:“2019”,“unstructured”:“B.He,J.Li,Y.Zhao,Y.Tian.2019。部分重新规定的近重复车辆重新识别。程序中。IEEE配置。视觉。帕特。认可。“},{”键“:”e_1_3_2_16_2“,”卷标题“:”Proc.IEEE Conf.Comp.Vis.Patt.Recogn.“,”作者“:”He K.“,”年份“:”2016“,”非结构化“:”K.He,X.Zhang,S.Ren,and J.Sun.2016。用于图像识别的深度残差学习。程序中。IEEE配置。视觉。帕特。认可。},{“key”:“e_1_3_2_17_2”,“非结构化”:“A.Hossein R.A.Sharif S.Josephine M.Atsuto和C.Stefan.2014。从一般到具体的视觉识别深度表示。arXiv预印arXiv:1406.5774v1(2014)。“},{”key“:”e_1_3_2_18_2“,”volume-title“:”Proc.IEEE Winter Appl.Compute.Vis.“,”author“:”Xiao e.“,”year“:”2014“,”unstructured“:”e.Xiao,S.N.Sinha,K.Ramnath,S.Baker,L.Zitnick,and R.Szeliski.2014。使用3D曲线对齐的汽车制造和模型识别。程序中。IEEE冬季应用。计算。视觉。“},{”key“:”e_1_3_2_19_2“,”doi-asserted-by“:”publisher“,”doi“:”10.1109\/CVPR.2014.242“}”,{“key”:“e_1_ 3_2_20_2”,”volume-title“:”Proc.IEEE Int.Conf.Comp.Vis.“,“author”:“Khorramshahi P.”,“year”:“2019”,“unstructured”:“P.Khorramshahi,A.Kumar,N.Peri,S.S.Rambhatla,J.Chen,and R.Chellappa.2019”●●●●。一种用于车辆再识别的具有自适应注意的双向模型。程序中。IEEE国际协调委员会。视觉。“},{“key”:“e_1_3_21_2”,“doi-asserted-by”:“publisher”,“doi”:“10.1109\/ICCVW.2013.77”},“{”key“:”e_1_ 3_22_2“,”doi-assert-by“:”publisher“,”doi“:”10.5555\/2999134.2999257“}”,{},{“key”:“e_1_3_2_24_2”,“volume-title”:“程序IEEE Conf.Comp.Vis.Patt.Recogn.”,“作者:“廖S.”,“年份”:“2015年”,“非结构化”:“廖S.,胡Y.,朱X.,李S.Z.2015。通过局部最大发生表示和度量学习进行人的重新识别。程序中。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_25_2“,”volume-title“:”Proc.Eur.Conf.Comp.Vis.“,”author“:”Lin Y.-L.“,”year“:”2014“,”unstructured“:”Y.-L Lin,V.I.Morariun,W.Hsu,and L.S.Davis.2014。联合优化三维模型拟合和细粒度分类。程序中。欧洲竞争对手。视觉。“},{”key“:”e_1_3_2_26_2“,”volume-title“:”Proc.IEEE Conf.Comp.Vis.Patt.Recogn.“,”author“:”Liu H.“,”year“:”2016“,”unstructured“:”H.Liu,Y.Tian,Y.Wang,L.Pang,and T.Huang.2016。深度相对远程学习:说出相似车辆之间的差异。程序中。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_27_2“,”volume-title“:”Proc.Eur.Conf.Comp.Vis.“,”author“:”Liu X.“,”year“:”2016“,”unstructured“:”X.Liu,W.Liu,T.Mei,and H.Ma.2016。一种基于深度学习的方法,用于城市监控的渐进式车辆重新识别。程序中。欧洲竞争对手。视觉。“},{”key“:”e_1_3_2_28_2“,”doi-asserted-by“:”publisher“,”doi“:”10.1109\/TMM.2017.2751966“}”,{“key”:“e_1_ 3_2_29_2”,“doi-assert-by”:“publisher”,“doi”:“10.1145\/33941171.3413578”},”{“key”:“e_1_30_2”,”volume-title“:”Proc.IEEE Int.Conf.Multimedia Expo.“,”author“:”Liu X.“,“年份“:”2018“,”非结构化“:”X.Liu、S.Zhang、Q.Huang和W.Gao.2018。RAM:用于车辆重新识别的区域感知深度模型。程序中。IEEE国际会议多媒体博览会。“},{”key“:”e_1_3_2_31_2“,”volume-title“:”Proc.IEEE Conf.Comp.Vis.Patt.Recogn.“,”author“:”Long J.“,”year“:”2015“,”unstructured“:”J.Long,e.Shelhamer,and T.Darrell.2015“。语义分割的完全卷积网络。程序中。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_32_2“,”doi断言“:”publisher“,”doi“:”10.1109\/TIP.20192902112“},{”key“:”e_1_3_2_33_2“,”卷标题“:”Proc.IEEE Conf.Comp.Vis.Patt.Recogn.“,”作者“:”Lou Y.“,”年份“:”2019“,”非结构化“:”Y.Lou,Y.Bai,J.Liu,S.Wang,and L.Duan.2019“。Veri-Wild:一个大型数据集和一种野外车辆重新识别的新方法。程序中。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_34_2“,”volume-title“:”Proc.IEEE Conf.Comp.Vis.Patt.Recogn.“,”author“:”Ma X“,”year“:”2019“,”unstructured“:”X.Ma,T.Zhang,and C.Xu.2019。GCAN:用于无监督域自适应的图卷积对抗网络。程序中。IEEE配置。视觉。帕特。重新签名。},{“key”:“e_1_3_2_35_2”,“volume-title”:“Proc.IEEE Conf.Comp.Vis.Patt.Recogn.”,“author”:“Meng D.”,“year”:“2020”,“unstructured”:“D.Meng,L.Li,X.Liu,X.Yang,Z.Zha,X.Gao,S.Wang,and Q.Huang.2020”。用于车辆重新识别的基于解析的视图软件嵌入网络。程序中。IEEE配置。视觉。帕特。认可。},{“key”:“e_1_3_2_36_2”,“非结构化”:“J.Qian W.Jiang H.Luo和H.Yu.2019。基于条带和属性感知的网络:用于车辆重新识别的两分支深度模型。arXiv预印本arXiv 1910.05549(2019)。“},{”key“:”e_1_3_2_37_2“,”doi-asserted-by“:”crossref“,”unstructured“:”K.Ramnath S.N.Sinha R.Szeliski和e.Xiao.2014。使用3D曲线对齐进行汽车制造和模型识别。程序中。IEEE配置应用。公司。视觉。“,”DOI“:”10.1109\/WACV.2014.6836087“},{“key”:“e_1_3_2_38_2”,“DOI-asserted-by”:“publisher”,“DOI”:“10.5555\/29669239.2969250”},“key“:”e_1_ 3_2_39_2“,”volume-title“:”Proc.IEEE Conf.Comp.Vis.Patt.Recogn.“,”author“:”Schroff F.“,”year“:”2015“,”unstructured“:”F.Schroff,D.Kaleni chenko和J.Philbin,2015年。FaceNet:用于人脸识别和聚类的统一嵌入。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_40_2“,”article-title“:”Grad-CAM:通过基于梯度的本地化从深层网络中进行可视化解释“,”author“:”Selvaraju R.R.“,”year“:”2017“,”unstructured“:”R.R.Selvarraju、M.Cogswell、A.Das、R.Vedantam、D.Parikh和D.Batra.2017。Grad-CAM:通过基于梯度的本地化从深层网络中进行可视化解释。arXiv预印arXiv:1610.02391(2017)。“,”journal-title“:”arXiv预印本arXiv:1610.02391“},{“key”:“e_1_3_2_41_2”,“article-title”:“OverFeat:使用卷积网络的集成识别、定位和检测。”,“author”:“Sermanet P.”,“year”:“2013”,“unstructured”:“P.Sermanet,D.Eigen,X.Zhang,M.Mathieu,R.Fergus,and Y.LeCun.2013。OverFeat:使用卷积网络集成识别、定位和检测。arXiv预印本arXiv:1312.6229(2013)。“,”journal-title“:”arXiv-print arXiv:1312.6229“},{“key”:“e_1_3_2_42_2”,“volume-title”:“Proc.IEEE Int.Conf.Comp.Vis.”,“author”:“Shen Y.”,“year”:“2017”,“unstructured”:“Y.Shen,T.Xiao,H.Li,S.Yi,and X.Wang.2017。使用可视化时空路径方案学习车辆Re-ID的深度神经网络。程序中。IEEE国际协调委员会。视觉。“},{”key“:”e_1_3_2_43_2“,”doi-asserted-by“:”publisher“,”doi“:”10.1109\/ICCV.2015.22“}”,{“key”:“e_1_ 3_2_44_2”,”unstructured“:”K.Simonyan和A.Zisserman.2012。用于大规模图像识别的深度卷积网络。在ICLR中。“},{”键“:”e_1_3_2_45_2“,”卷标题“:”Proc.Int.Conf.Learn.Repr.“,”作者“:”Simonyan K.“,”年份“:”2015“,”非结构化“:”K.Simonyan and A.Zisserman.2015。用于大规模图像识别的深度卷积网络。程序中。国际会议学习。代表“},{”key“:”e_1_3_2_46_2“,”volume-title“:”Proc.IEEE Conf.Comp.Vis.Patt.Recogn.“,”author“:”Song H.O.“,“年份”:“2016”,“非结构化”:“H.O.Song,Y.Xiang,S.Jegelka,and S.Savarese.2016”。通过提升结构化特征嵌入进行深度度量学习。程序中。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_47_2“,”doi-asserted-by“:”publisher“,”doi“:”10.5555\/2969033.2969049“}”,{“key”:“e_1_ 3_2_48_2”,“doi-assert-by”:“publisher”,“doi”:“10.1109\/CVPR.2014.244”},”{“密钥”:“e_1_3_2_49_2”,”卷时间“:”Proc.IEEE Conf.Comp.Vis.Patt.Recogn.“,”“作者”:“孙毅”,“年份”:“2015年”,“非结构化”:“孙毅,X.Wang,X.Tang.2015。深入学习的人脸表示是稀疏的、选择性的和健壮的。程序中。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_50_2“,”doi-asserted-by“:”publisher“,”doi“:”10.1109\/CVPR.2014.220“}”,{“key”:“e_1_ 3_2_51_2”,“volume-title”:“Proc.IEEE Int.Conf.Comp.Vis.”,“author”:“Tang Z.”,“year”:“2019”,“unstructured”:“Z.Tang,M.Naphade,S.Birchfield,J.Tremblay,W.Hodge,R.Kumar,S.Wang,X.Yang.2019”●●●●。PAMTRI:使用高度随机的合成数据进行车辆重新识别的姿态感知多任务学习。程序中。IEEE国际协调委员会。视觉。“},{”key“:”e_1_3_2_52_2“,”volume-title“:”Proc.Int.Conf.Learn.Rep.“,”author“:”Tolias G.“,”year“:”2016“,”unstructured“:”G.Tolias,R.Sicre,and H.Jegou.2016。使用CNN激活的积分最大池进行特定对象检索。程序中。国际会议学习。Repr.“},{“key”:“e_1_3_2_53_2”,“doi-asserted-by”:“publisher”,“doi”:“10.1109\/CVPR.2014.180”},},“key“:”e_1_ 3_2_54_2“,“volume-title”:“Proc.IEEE Int.Conf.Comp.Vis.”,”author“:”Wang Z.“,”year“2017”,“unstructured”:“Z.Wang,L.Tang,X.Liu,Z.Yao,S.Yi,J.Shao,J.Yan,S.Wang,H.Li,and X.王2017。用于车辆识别的方向不变特征嵌入和时空正则化。程序中。IEEE国际协调委员会。视觉。“},{”key“:”e_1_3_2_55_2“,”doi-asserted-by“:”publisher“,”doi“:”10.5555\/1577069.1577078“}“key”:“e_1_ 3_2_56_2”,”volume-title“:”Proc.IEEE Conf.Comp.Vis.Patt.Recogn.“,”author“:”Xiang Y.“,“year”:“2015”,“unstructured”:“Y.Xiang,W.Choi,Y.Lin,and S.Savarese.2015”。用于对象类别识别的数据驱动三维体素模式。程序中。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_57_2“,”volume-title“:”Proc.Int.Conf.Mach.Learn.“,”author“:”Xie S.“,”year“:”2018“,”unstructured“:”S.Xie,Z.Zheng,L.Chen,and C.Chen.2018。学习无监督领域适应的语义表示。程序中。内部配置机。学习。“},{”key“:”e_1_3_2_58_2“,”doi-asserted-by“:”publisher“,”doi“:”10.1109\/TIP.2017.2765836“}”,{“key”:“e_1_ 3_2_59_2”,“volume-title”:“Proc.IEEE Conf.Comp.Vis.Patt.Recogn.”,“author”:“Yang L.”,“year”:“2015”,“unstructured”:“L.Yang,P.Luo,C.Loy,and X.Tang.2015。用于细粒度分类和验证的大规模汽车数据集。程序中。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_60_2“,”doi-asserted-by“:”publisher“,”doi“:”10.1145\/3089249“}、{”密钥“:”e_1_3_2_61_2“,“doi-assert-by”:“publisher”,“doi”:“10.1109\/ICPR.2014.16”},“key”:“e_1_ 3_2_62_2”,“volume-title”:“Proc.IEEE Conf.Com.Vis.Patt.Recogn.”,“author”:“Zhang X.”,“年份”:“2016年”,“非结构化”:“X.Zhang,F.Zhou,Y.Lin,and S.Zhang.2016。嵌入用于细粒度特征表示的标签结构。程序中。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_63_2“,”doi-asserted-by“:”publisher“,”doi“:”10.1109\/TIP.2011.2160954“}”,{“key”:“e_1_ 3_2_64_2”,“doi-assert-by”:“publisher”,“doi”:“10.5555\/2919332.2919877”},“{”密钥“:”e_3_2_65_2“,“article-title”:“VehicleNet:Learning robust visual representation for vehicle re-identition”,“author”:“Zheng”“年”:“2020年”,“非结构化”:“年”。Zheng、T.Ruan、Y.Wei、Y.Yang和T.Mei.2020。VehicleNet:学习用于车辆重新识别的鲁棒视觉表示。IEEE传输。多媒体23(2020),2683\u20132693。”,“新闻标题”:“IEEE Trans。多媒体“},{“key”:“e_1_3_2_66_2”,“volume-title”:“Proc.IEEE Conf.Comp.Vis.Patt.Recogn.”,“author”:“Zhou F.”,“year”:“2016”,“unstructured”:“F.Zhou and Y.Lin.2016。通过探索双部分纹理标签进行细粒度图像分类。程序中。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_67_2“,”volume-title“:”Proc.Brit.Mach.Vis.Conf.“,”author“:”Zhou Y.“,“年份”:“2017年”,“非结构化”:“Y.Zhou and L.Shao.2017。基于横视GAN的车辆生成,用于重新识别。程序中。英国。机器。视觉。Conf.“},{“key”:“e_1_3_2_68_2”,“volume title”:“Proc.IEEE Conf.Comp.Vis.Pat.Recogn.”,“author”:“Zhou Y.”,“year”:“2018”,“nonstructured”:“Y.Zhou and L.Shao.2018。为车辆重新识别提供专注的多视图推理。程序中。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_69_2“,”volume-title“:”Proc.IEEE Conf.Comp.Vis.Patt.Recogn.“,”author“:”周瑜“,”year“:”2018“,”unstructured“:”Y.Zhou和L.Shao.2018。视点软件关注车辆重新识别的多视图推理。程序中。IEEE配置。视觉。帕特。认可。“},{”key“:”e_1_3_2_70_2“,”volume-title“:”Proc.Int.Conf.Learn.Repr.“,”author“:”Zhu J“,”year“:”2016“,”unstructured“:”J.Zhu,X.Chen,and A.L.Yuille.2016。DeepM:一种基于深度部分的模型,用于对象检测和语义部分定位。程序中。国际会议学习。Repr.“}”,“container-title”:[“ACM Transactions on Multimedia Computing,Communications,and Applications”],“original-title“:[],“language”:“en”,“link”:[{“URL”:“https:\/\/dl.ACM.org\/doi\/pdf\/10.1145\/3474596”,“content-type”:“unspecified”,“content-version”:“vor”,“intended-application”:“similarity-checking”}],“deposed”:{“date-parts”:[2023,1,2]],“date-time“:”2023-01-02T01:48:08Z“,”timestamp“:1672624088000},”score“:1,”resource“:{主要”:{“URL”:“https:\/\/dl.acm.org\/doi\/10.1145\/3474596”}},“subtitle”:[],“shorttitle”:[],“issued”:int“:{“date-parts”:[[2022,2,28]]}},“alternative-id”:[“10.1145\/3474596“],”URL“:”http://\/dx.doi.org\/10.1145\/3475596“,”关系“:{},”ISSN“:[”1551-6857“,”1551-68“],“ISSN-type”:[{“value”:“1551-68”,”type“:”print“},{“value”:“1 551-6865”,”类型“:”electronic“}],”subject“:[],”published“:{“date-parts”:[2022,1,25]]},“断言”:[{“value”:“2020-12-01”,“order”:0,“name”:“received”,“label”:“received”group“:{”name“:”publication_history“,”label“:”publication history“}},{”value“:”2021-07-01“,”order“:1,”name“:”accepted“,“label”:“accepted”,“group”:{“}”}]}}