{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期-部件”:[[2024,6,21]],“日期-时间”:“2024-06-21T16:11:24Z”,“时间戳”:1718986284858},“参考-计数”:203“:”2022-10-19T00:00:00Z“,“timestamp”:166613760000},“content-version”:“tdm”,“delay-in-days”:0,“URL”:“https:\\/www.springernature.com//gp\/researters\/text-and-data-mining”},{“start”:{“date-parts”:[[2022,10,19]],“date-time”:“2022-10-19T00:00:00Z”,“timetamp”:16.61376000000}:“https:\/\/www.springernature.com/gp\/researters\/text-and-data-mining”}],“资助者”:[{“DOI”:“10.13039\/501100001809”,“名称”:“中国国家自然科学基金会”,“DOI-asserted-by”:“crossref”,“奖项”:[“61962008”]}],”content-domain“:{”domain“:[”link.springer.com“],”cross-mark-restriction“:false},”short-container-title“:[”多媒体系统“],“published-print”:{“date-parts”:[[2023,4]]},“DOI”:“10.1007\/s00530-022-01003-8”,“type”:“journal-article”,“created”:{“date-parts”:[2022,10,19]],“date-time”:“2022-10-19T09:06:57Z”,“timestamp”:1666170417000},”page“693-724”,“update-policy”:”http://dx.DOI.org\/10.1007\/springer _crossmark_policy“,“source”:“Crossref”,“is-referenced-by-count”:6,“标题”:[“视觉神经网络调查:当前趋势、挑战和机遇”],“前缀”:“10.1007”,“卷”:“29”,“作者”:[{“给定”:“平”,“家庭”:“风”,“序列”:“第一”,“从属”:[]},{“给出”:“振军”,“家族”:“唐”,“顺序”:“附加”,“隶属”:[]}],“成员”:“297”,“在线发布”:{“日期段”:[2022,10,19]]}、,“reference”:[{“issue”:“3”,“key”:“1003_CR1”,“doi-asserted-by”:“publisher”,《first page》:“389”,“doi”:“10.1007\/s00530-020-00696-z”,“volume”:”27“,”author“:”X Liang“,”year“:”2021“,“unstructured”:“Liang,X.,Tang,z.,Xie,X.、Wu,J.,Zhang,X.:使用二维PCA的稳健快速图像散列。多媒体系统27(3),389\u2013401(2021年)”,“journal-title”:“多媒体系统”},{“key”:“1003_CR2”,“doi-asserted-by”:“crossref”,“unstructured”:“Zoph,B.,Vasudevan,V.,Shlens,J.,Le,Q.V.:学习可扩展图像识别的可转换架构。摘自:IEEE计算机视觉和模式识别会议记录,第8697\u20138710页。(2018)“,”DOI“:”10.1109\/CVPR.2018.00907“},{“key”:“1003_CR3”,“DOI-asserted-by”:“crossref”,“unstructured”:“Tan,M.,Pang,R.,Le,Q.V.:Efficientdet:可伸缩和高效的对象检测。摘自:IEEE\/CVF计算机视觉和模式识别会议记录,第10781\u201310790页。(2020)“,”DOI“:”10.1109\/CVPR42600.2020.01079“},{“key”:“1003_CR4”,“DOI-asserted-by”:“publisher”,“DOI”:“10.1007\/s00530-022-00915-9”,“author”:“W Pang”,“year”:“2022”,“unstructured”:“Pang,W.,He,Q.,Li,Y.:使用骨架变换器进行视频异常检测预测骨架轨迹。Multimed.Syst.(2022)https:\/\/doi.org\/10.1007\/s00530-022-00915-9“,”journal-title“:”多媒体。系统。“},{”key“:”1003_CR5“,”doi-asserted-by“:”publisher“,”first page“:“834”,”doi“:”10.1109\/TPAMI.2017.2699184“,“volume”:“40”,“author”:“LC Chen”,“year”:“2018”,“unstructured”:“Chen,L.C.、Papandreou,G.、Kokkinos,I.、Murphy,K.、Yuille,A.L.:DeepLab:使用深度卷积网络、atrous卷积和完全连接的CRF进行语义图像分割。IEEE传输。模式分析。机器。智力。40834\u2013848(2018)”,“期刊标题”:“IEEE Trans。模式分析。机器。智力。“},{”key“:”1003_CR6“,”doi-asserted-by“:”publisher“,”first page“:“1655”,“doi”:“10.1109\/TPAMI.2018.2846566”,“volume”:“41”,“author”:“F Radenovi\u0107”,“year”:“2018”,“unstructured”:“Radenovi.u0107,F.,Tolias,G.,Chum,O.:无人工注释的微调CNN图像检索。IEEE Trans.Pattern Anal.Mach.Intell.41,1655\u2013166 8(2018)“,”journal-title“:”IEEE Trans。模式分析。机器。智力。},{“key”:“1003_CR7”,“doi-asserted-by”:“crossref”,“unstructured”:“Radenovi\u0107,F.,Ischen,A.,Tolias,G.,Avrithis,Y.,Chum,O.:重温牛津和巴黎:大尺度图像检索基准。摘自:IEEE\/CVF计算机视觉和模式识别会议记录,第5706\u20135715页。(2018)“,”DOI“:”10.1109\/CVPR.2018.00598“},{“key”:“1003_CR8”,“DOI-asserted-by”:“crossref”,“unstructured”:“Jarrett,K.,Kavukcuoglu,K.、Ranzato,M.A.,LeCun,Y.:什么是对象识别的最佳多级架构?摘自:2009 IEEE第12届国际计算机视觉会议论文集,第2146\u20132153页。(2009)“,”DOI“:”10.1109\/ICCV.2009.5459469“},{“key”:“1003_CR9”,“DOI-asserted-by”:“crossref”,“unstructured”:“Bengio,Y.:学习人工智能的深层架构。Now Publishers Inc,2(1),1\u2013127(2009)”,“DOI”:“10.1561\/220000006”},“key“:”1003_CR10“,”DOI-assert-by“:”publisher“,“DOI:”10.1007\/s00530-022-006 0916-8“,”作者“:”J Lv“,”年份“:”2022“,”非结构化”:“Lv,J.,Wang,X.,Shao,C.:TMIF:基于变压器的多模态交互式融合,用于自动谣言检测。多模式。系统。(2022). https:\/\/doi.org\/10.1007\/s00530-022-00916-8“,”journal-title“:”Multimed。系统。“},{”key“:”1003_CR11“,”unstructured“:”Dosovitskiy,A.,Beyer,L.,Kolesnikov,A.,Weissenborn,D.,Zhai,X.,Unterthiner,T.,Dehghani,M.,Minderer,M.、Heigold,G.,Gelly,S.:图像值16x16个单词:图像识别的变形金刚(Transformers for image recognition at scale.In:Proceedings of the International Conference on Learning Representations)“}”,{“key”:“1003_CR12“,“非结构化”:“Chen,M.,Radford,A.,Child,R.,Wu,J.,Jun,H.,Luan,D.,Sutskever,I.:从像素进行生成性预处理。在:《国际机器学习会议录》,第1691\u20131703页(2020)“},{“key”:“1003_CR13”,“非结构化”:“Goodfellow,I.J.,Shlens,J.,Szegedy,C.:解释和利用对抗性示例。在:《国际学习表征会议录》(2014)“},{“issue”:“5”,“key”:“1003_CR14”,”doi-asserted-by“:”publisher“,”first page“:”726“,”doi“:”10.1109\/TETCI.2021.3100641“,”volume“:“5”,”author“:”Y Zhang“,”year“:”2021“,”unstructured“:”Zhang,Y.,Ti\u0148o,P.,Leonardis,A.,Tang,K.:神经网络可解释性调查。IEEE传输。Emerg.顶部。计算。智力。5(5),726\u2013742(2021)。“,”journal-title“:”IEEE Trans。Emerg.顶部。计算。智力。“},{”key“:”1003_CR15“,”doi asserted by“:”publisher“,”first page“:”302“,”doi“:”10.1016\/j.neucom.20207.053“,”volume“:”417“,”author“:”M Alam“,”year“:”2020“,”非结构化“:”Alam,M.,Samad,M.D.,Vidyaratne,L.,Glandon,A.,Iftekharuddin,K.M.:语音和视觉系统深层神经网络调查。神经计算417,302\u2013321(2020)“,”journal-title“:”Neurocomputing“},{”key“:”1003_CR16“,”unstructured“:”Bouvrie,J.:卷积神经网络注释publisher“,”first page“:”436“,”DOI“:”10.1038\/nature14539“,”volume“:“521”,”author“:”Y LeCun“,”year“:”2015“,”unstructured“:”LeCun,Y.,Bengio,Y.、Hinton,G.:深度学习。Nature 521,436\u2013444(2015)“,“journal-title”:“Nature”},{“key”:“1003_CR19”,“doi-asserted-by”:“crossref”,“unstructured”:“Scherer,D.,M\u00fcller,A.,Behnke,S.:卷积结构中用于对象识别的池操作评估。摘自:《国际人工神经网络会议论文集》,第92\u2013101页。Springer,(2010)“,“DOI”:“10.1007\/978-3-642-15825-4_10”},{“key”:“1003_CR20”,“unstructured”:“Wang,T.,Wu,D.J.,Coates,A.,Ng,A.Y.:用卷积神经网络进行端到端文本识别。In:Proceedings of the 21st International Conference on Pattern recognition,pp.3304\u20133308,(2012)”}、{“key”:publisher“,”first page“:”1904“,”DOI“:”10.1109\/TPAMI.2015.2389824“,“volume”:“37”,“author”:“K He”,“year”:“2015”,“unstructured”:“He,K.,Zhang,X.,Ren,S.,Sun,J.:视觉识别深层卷积网络中的空间金字塔池。IEEE传输。模式分析。机器。智力。37,1904\u20131916(2015)“,“期刊标题”:“IEEE Trans。模式分析。机器。智力。“},{”key“:”1003_CR22“,”unstructured“:”Lin,M.,Chen,Q.,Yan,S.:“网络中的网络。in:《国际学习代表大会论文集》(2014)“}”,{“key”:“1003_CR2”,“doi-asserted-by”:“publisher”,“first page”:”2352“,”doi“:”10.1162\/neco_a_00990“,”volume“29”,“author”:“W Rawat”,“year”:“2017”,“unstructure”:“”Rawat,W.,Wang,Z.:用于图像分类的深度卷积神经网络:综合评述。神经计算。29,2352\u20132449(2017)“,“新闻标题”:“神经计算。“},{”key“:”1003_CR24“,”unstructured“:”Nwankpa,C.,Ijomah,W.,Gachagan,A.,Marshall,S.:激活功能:深入学习实践和研究趋势的比较。arXiv预印本arXiv:1811.03378(2018)“}”,{“key”:“1003_CR2”,“doi-asserted-by”:“publisher”,“first page”:”107“,”doi“:”10.1142\/S021848859800094“,”卷:“6”,“作者”:“S Hochreiter,“年份”:“1998年”,“非结构化”:“Hochreite,S.:学习递归神经网络过程中的消失梯度问题和问题解决方案。国际期刊不确定性。模糊知识-基于系统。6,107\u2013116(1998)“,“期刊标题”:“国际期刊不确定性”。模糊知识-基于系统。},{“key”:“1003_CR26”,“unstructured”:“Ioffe,S.,Szegedy,C.:批量规范化:通过减少内部协变量偏移来加速深层网络训练。摘自:《国际机器学习会议论文集》,第448\u2013456页。(2015)“},{”key“:”1003_CR27“,”first page“:“2488”,“volume”:“31”,“author”:“S Santurkar”,“year”:“2018”,“unstructured”:“Santurkar,S.,Tsipras,D.,Ilyas,A.,Madry,A.:批次规范化如何帮助优化?Adv.Neural Inf.Process.Syst.31,2488\u20132498(2018)”,“journal title”:“Adv.Neral Inf.Process.System.”},8英寸doi-asserted-by“:”publisher“,”first page“:”2278“,”doi“:”10.1109\/5.726791“,”volume“:“86”,”author“:”Y LeCun“,”year“:”1998“,”unstructured“:”LeCun,Y.、Bottou,L.、Bengio,Y.和Haffner,P.:基于梯度的学习应用于文档识别。程序。IEEE 86,2278\u20132324(1998)“,”期刊标题“:”。IEEE“},{“key”:“1003_CR29”,“首页”:“84”,“卷”:“25”,“作者”:“A Krizhevsky”,“年份”:“2012”,“非结构化”:“Krizhovsky,A.,Sutskever,I.,Hinton,G.E.:用深度卷积神经网络进行图像元分类。Adv.neural Inf.Process.Syst.25,84\u201390(2012)”,“日记标题”:“Adv.neural Inf.Process.Syst.”},},“key“1003_CR30”,“doi-asserted-by“:”publisher“,”first page“:”211“,“doi”:“10.1007”,“volume”:“115”,“author”:“O Russakovsky”,“year”:“2015”,“unstructured”:“Russakowsky,O.,Deng,J.,Su,H.,Krause,J.、Satheesh,S.,Ma,S.、Huang,Z.,Karpathy,A.、Khosla,A.、Bernstein,M.:Imagenet大规模视觉识别挑战。国际期刊计算。Vision 115,211\u2013252(2015)”,“新闻标题”:“国际计算杂志”。Vision“},{”key“:”1003_CR31“,”doi-asserted-by“:”crossref“,”unstructured“:”Zeiler,M.D.,Fergus,R.:可视化和理解卷积网络。摘自:《欧洲计算机视觉会议论文集》,第818\u2013833页。Springer,(2014)“,“DOI”:“10.1007\/978-3-319-10590-1_53”},{“key”:“1003_CR32”,“unstructured”:“Simonyan,K.,Zisserman,A.:用于大规模图像识别的深度卷积网络。In:Proceedings of the International Conference on Learning Representations.(2015)”}、{“key”:《1003_CR 33》,“DOI-asserted-by”:“crossref”,“非结构化”:“Szegedy,C.,Liu,W.,Jia,Y.,Sermanet,P.,Reed,S.,Angelov,D.,Erhan,D.,Vanhoucke,V.,Rabinovich,A.:卷积更深入。摘自:IEEE计算机视觉和模式识别会议论文集,第1\u20139页。(2015)“,”DOI“:”10.1109\/CVPR.2015.7298594“},{“key”:“1003_CR34”,“DOI-asserted-by”:“crossref”,“unstructured”:“He,K.,Zhang,X.,Ren,S.,Sun,J.:图像识别的深度剩余学习。摘自:IEEE\/CVF计算机视觉和模式识别会议记录,第770\u2013778页。(2016)”,“DOI”:“10.1109\/CVPR.2016.90”},{“key”:“1003_CR35”,“DOI断言”:“crossref”,“非结构化”:“Szegedy,C.,Vanhoucke,V.,Ioffe,S.,Shlens,J.,Wojna,Z.:重新思考计算机视觉的初始架构。在:IEEE\/CFF计算机视觉和模式识别会议论文集,第2818\u20132826页。(2016)“,”DOI“:”10.1109\/CVPR.2016.308“},{“key”:“1003_CR36”,“DOI-asserted-by”:“crossref”,“unstructured”:“Szegedy,C.,Ioffe,S.,Vanhoucke,V.,Alemi,A.A.:Inception-v4,Inception-resnet和剩余联系对学习的影响。摘自:《第三十届AAAI人工智能会议论文集》,第4278\u20134284页。(2017)“,”DOI“:”10.1609\/aaai.v31i1.11231“},{“key”:“1003_CR37”,“DOI-asserted-by”:“crossref”,“unstructured”:“He,K.,Zhang,X.,Ren,S.,Sun,J.:深度剩余网络中的身份映射。摘自:《欧洲计算机视觉会议论文集》,第630\u2013645页。Springer,(2016)“,“DOI”:“10.1007\/978-3-319-46493-0_38”},{“key”:“1003_CR38”,“DOI-asserted-by”:“crossref”,“unstructured”:“Xie,S.,Girshick,R.,Doll\u00e1r,P.,Tu,Z.,He,K.:深度神经网络的聚集残差变换。摘自:IEEE计算机视觉与模式识别会议论文集,第1492\u20131500页。(2017)“,”DOI“:”10.1109\/CVPR.2017.634“},{“key”:“1003_CR39”,“DOI-asserted-by”:“crossref”,“unstructured”:“Zagoruyko,S.,Komodakis,N.:宽剩余网络。In:British Machine Vision Conference.(2016)”,“DOI”:“10.5244\/C.30.87”},“key“:”1003_CR10“,“unsructured“:”Zhang,H.、Wu,C.、Zhang、Zhu,Y.、Lin,H.,Zhang和Z.、Sun,Y.,He,T.、Mueller,J.、Manmatha,R.:Resnest:分裂注意网络。arXiv预印本arXiv:2004.08955(2020)“},{“key”:“1003_CR41”,“doi-asserted-by”:“crossref”,“unstructured”:“Huang,G.,Liu,Z.,Van Der Maaten,L.,Weinberger,K.Q.:紧密连接卷积网络。摘自:IEEE \/CVF计算机视觉和模式识别会议论文集,第4700\u20134708页。(2017)”,“DOI”:“10.1109\/CVPR.2017.243”},{“key”:“1003_CR42”,“DOI-asserted-by”:“crossref”,“unstructured”:“Hu,J.,Shen,L.,Sun,G.:挤压和激励网络。摘自:IEEE计算机视觉和模式识别会议记录,第7132\u20137141页。(2018)“,”DOI“:”10.1109\/CVPR.2018.00745“},{“key”:“1003_CR43”,“DOI-asserted-by”:“crossref”,“unstructured”:“Cholet,F.:Xception:深度学习与深度可分离卷积。摘自:IEEE计算机视觉与模式识别会议记录,pp.1251\u20131258。(2017)”,“DOI”:“10.1109\/CVPR.2017.195”},{“key”:“1003_CR44”,“nonstructured”:“Howard,A.G.,Zhu,M.,Chen,B.,Kalenichenko,D.,Wang,W.,Weyand,T.,Andreetto,M.,Adam,H.:Mobilenets:用于移动视觉应用的高效卷积神经网络。arXiv预印本arXiv:1704.044861(2017)”},{“key”:“1003_CR45”,DOI断言为“:”crossref“,”非结构化”:“Su,J.,Faraone,J.、Liu,J.、Zhao,Y.、Thomas,D.B.、Leong,P.H.、Cheung,P.Y.:基于可重构逻辑的冗余减少移动网络加速,用于图像网络分类。摘自:应用可重构计算国际研讨会,第16\u201328页。Springer,(2018)“,“DOI”:“10.1007\/978-319-78890-6_2”},{“key”:“1003_CR46”,“unstructured”:“Han,S.,Mao,H.,Dally,W.J.:深度压缩:使用剪枝、训练量化和哈夫曼编码压缩深度神经网络。In:学习表征国际会议论文集。(2016)”}Zhou,S.,Wu,Y.,Ni,Z.,Zhou,X.,Wen,H.,Zou,Y.:Dorefa net:用低位宽梯度训练低位宽卷积神经网络。收录:IEEE\/CVF计算机视觉和模式识别会议论文集。(2018)“},{”key“:”1003_CR48“,”unstructured“:”Tan,M.,Le,Q.:Efficientnet:卷积神经网络模型缩放的再思考。摘自:《国际机器学习会议论文集》,第6105\u20136114页。(2019)“},{“key”:“1003_CR49”,“doi-asserted-by”:“crossref”,“unstructured”:“Pan,X.,Luo,P.,Shi,J.,Tang,X.:Two at once:通过ibn-net提高学习和泛化能力。摘自:《欧洲计算机视觉会议论文集》,第464\u2013479页。(2018)“,”DOI“:”10.1007\/978-3-030-01225-0_29“},{”key“:”1003_CR50“,”first page“:“3965”,“volume”:“34”,“author”:“Z Dai”,“year”:“2021”,“unstructured”:“Dai,Z.,Liu,H.,Le,Q.,Tan,M.:Coatnet:结合卷积和所有数据大小的注意力。Adv.Neural.Inf.Process.Syst.34,3965\u20133977(2021)”,“journal title”:“Adv.Neral”。信息。过程。系统。“},{”key“:”1003_CR51“,”unstructured“:”Han,K.,Wang,Y.,Guo,J.,Tang,Y.,Wu,E.:Vision GNN:图像是值得的节点图。arXiv预印本arXiv:2206.00272(2022)“}”,{“key”:“1003_CR52”,“首页”:“5998”,“卷”:“30”,“作者”:“A Vaswani”,“年份”:“2017”,“unstructure”:“”Vaswani,A.、Shazeer,N.、Parmar,N.,Uszkoreit,J.、Jones,L.、Gomez,A.N.、Kaiser,\u0141、Polosukhin,I.:注意力是你所需要的。高级神经。信息处理。系统。30,5998\u20136008(2017)“,“新闻标题”:“Adv.Neural。信息处理。系统。“},{”key“:”1003_CR53“,”unstructured“:”Ba,J.L.,Kiros,J.R.,Hinton,G.E.:层规范化。arXiv预打印arXiv:1607.06450(2016)“}”,{“key”:“1003_CR54”,“unstructure”:“Hendrycks,D.,Gimpel,K.:高斯误差线性单位(gelus)。arXiv-print arXiv:1606.08415(2016)”},“key“:”1003_CR55“,”doi-asserted-by“:”crossref“,”非结构化“:”Carion,N.、Massa,F.、Synnaeve,G.、Usunier,N.,Kirillov,A.、Zagoryko,S.:使用变压器进行端到端物体检测。摘自:《欧洲计算机视觉会议记录》,第213\u2013229页。Springer,(2020)“,”DOI“:”10.1007\/978-3-030-58452-8_13“},{”key“:”1003_CR56“,”first page“:“91”,“volume”:“28”,“author”:“S Ren”,“year”:“2015”,“unstructured”:“Ren,S.,He,K.,Girshick,R.,Sun,J.:更快的R-cnn:利用区域提议网络实现实时目标检测。Adv.Neural.Inf.Process.Syst.28,91\u201399(2015)”,“journal-title”:“”高级神经。信息处理。系统。},{“key”:“1003_CR57”,“doi-asserted-by”:“crossref”,“unstructured”:“Girshick,R.:Fast R-cnn.In:IEEE计算机视觉国际会议论文集,第1440\u20131448页。(2015)“,”DOI“:”10.1109\/ICCV.2015.169“},{“key”:“1003_CR58”,“unstructured”:“Chen,T.,Kornblith,S.,Norouzi,M.,Hinton,G.:视觉表征对比学习的简单框架。摘自:《国际机器学习会议论文集》,第1597\u20131607页。(2020)“},{“key”:“1003_CR59”,“首页”:“9”,“卷”:“1”,“作者”:“A Radford”,“年份”:“2019年”,“非结构化”:“Radford,A.,Wu,J.,Child,R.,Luan,D.,Amodei,D.,Sutskever,I.:语言模型是无监督的多任务学习者。OpenAI blog 1,9交叉参考“,”非结构化”:“Radosavovic,I.,Kosaraju,R.P.,Girshick,R.,He,K.,Doll\u00e1r,P.:设计网络设计空间。摘自:IEEE计算机视觉和模式识别会议记录,第10428\u201310436页。(2020)“,”DOI“:”10.1109\/CVPR42600.2020.01044“},{”key“:”1003_CR61“,”unstructured“:”Touvron,H.,Cord,M.,Douze,M.、Massa,F.,Sablayrolles,A.,J\u00e9gou,H.:通过注意力训练数据高效的图像变换器和蒸馏。摘自:国际机器学习会议记录,第10347\u201310357页。(2021)“},{”key“:”1003_CR62“,”doi-asserted-by“:”crossref“,”unstructured“:”Liu,Z.,Lin。(2021)“,”DOI“:”10.1109\/ICCV48922.2021.00986“},{”key“:”1003_CR63“,”unstructured“:”Bello,I.:Lambdanetworks:建模无需注意的远程交互。arXiv预印本arXiv:2102.08602(2021Huang,Z.、Ben,Y.、Luo,G.、Cheng,P.、Yu,G.,Fu,B.:洗牌变换器:重新思考视觉变换器的空间洗牌。arXiv预打印arXiv:2106.03650(2021)“},{“key”:“1003_CR65”,“doi-asserted-by”:“crossref”,“unstructured”:“Wang,W.,Xie,E.,Li,X.,Fan,D.-P,Song,K.,Liang,D.,Lu,T.,Luo,P.,Shao,L.:金字塔视觉转换器:无卷积密集预测的通用骨干。摘自:IEEE计算机视觉国际会议论文集,第568\u2013578页。(2021)“,”DOI“:”10.1109\/ICCV48922.2021.00061“},{”key“:”1003_CR66“,”DOI-asserted-by“:”crossref“,”unstructured“:”Wang,W.,Xie,E.,Li,X.,Fan,D.-P.,Song,K.,Liang,D.,Lu,T.,Luo,P.,Shao,L.:PVT v2:使用金字塔视觉变换器改进基线。计算视觉媒体1\u201310(2022)“,“DOI”:“10.1007\/s41095-022-0274-8”},{“密钥”:“1003_CR67“,“非结构化”:“周大全等:Deepvit:迈向更深层的视觉变压器。arXiv预印arXiv:2103.11886(2021)。“},{”key“:”1003_CR68“,”unstructured“:”Li,Y.,Zhang,K.,Cao,J.,Timofte,R.,Van Gool,L.:Localvit:将局部性引入视觉变换器。arXiv预印本arXiv:2104.05707(2021)“}”,{“key”:“1003_CR 69”,“doi-asserted-by”:“crossref”,“unstructure”:“”Zhang,J.、Peng,H.、Wu,K.、Liu,M.、Xiao,B.、Fu,J.和Yuan,L.:MiniViT:使用权重复用压缩视觉变换器。摘自:IEEE计算机视觉和模式识别会议记录,第12145\u201312154页。(2022)“,”DOI“:”10.1109\/CVPR52688.2022.01183“},{”key“:”1003_CR70“,”首页“:”26831“,”volume“:“34”,”author“:”Y Bai“,”year“:”2021“,“unstructured”:“Bai,Y.,Mei,J.,Yuille,A.L.,Xie,C.:Transformers是否比CNN更健壮?Adv.Neural.Inf.Process.Syst.34,26831\u201326843(2021)”,“journal title”:“Advv.Neuran.Inf.Process.系统“},{”key”:“1003_CR71”,“非结构化”:“Kipf,T.N.,Welling,M.:图卷积网络的半监督分类。arXiv预印本arXiv:1609.02907(2016)“},{“key”:“1003_CR72”,“unstructured”:“Hendrycks,D.,Dietterich,T.:神经网络对常见腐败和扰动的鲁棒性基准测试。In:Proceedings of the International Conference on Learning Representations,(2019)”},}“key:”1003_CR 73“,”doi-asserted-by“:”crossref“,”unstructure“:”Hendrycks,D.,Zhao,K.,Basart,S.,Steinhardt,J.,Song,D.:自然对抗性示例。摘自:IEEE计算机视觉和模式识别会议记录,第15262\u201315271页。(2021)”,“DOI”:“10.1109\/CVPR4437.201.01501”},{“key”:“1003_CR74”,“DOI断言者”:“crossref”,“非结构化”:“Zhang,Z.,Xie,Y.,Xing,F.,McGough,M.,Yang,L.:Mdnet:一个语义和视觉上可解释的医学图像诊断网络。摘自:IEEE计算机视觉和模式识别会议记录,第6428页,20136436页。(2017)“,”DOI“:”10.1109\/CVPR.2017.378“},{”key“:”1003_CR75“,”DOI-asserted-by“:”publisher“,”first page“:“42”,“DOI”:“10.1109\/MSP.2021.3134634”,“volume”:“39”,“author”:“L Ericsson”,“year”:“2022”,“unstructured”:“Ericsson,L.、Gouk,H.、Loy,C.C.、Hospedales,T.M.:自我监督表征学习:介绍、进展和挑战。IEEE信号处理。Mag.39,42\u201362(2022)“,“日志标题”:“IEEE信号处理。Mag.“},{“key”:“1003_CR76”,“unstructured”:“Zhang,Y.,Kang,B.,Hooi,B.,Yan,S.,Feng,J.:深长尾学习:一项调查。arXiv预印本arXiv:2110.04596(2021)”},},“key“:”1003_CR 77“,”doi-asserted-by“:”crossref“,”unstructure“:”Liu,W.,Wang,H.,Shen,X.,Tsang,I.:多标签学习的新兴趋势。IEEE模式分析与机器智能学报(2021)“,”DOI“:”10.1109\/TPAMI.2021.3119334“},{”key“:”1003_CR78“,”DOI-asserted-by“:”publisher“,”first page“:“370”,”DOI:“10.1016\/j.neucom.2021.07.045“,”volume“:Liang,T.,Glossner,J.,Wang,L.,Shi,S.,Zhang,X.:深层神经网络加速的剪枝和量化:一项调查。Neurocomputing 461,370\u2013403(2021)“,”journal-title“:”Neurocumputing“},{”key“:”1003_CR79“,”first page“:“129”,“volume”:“2”,“author”:“D Blalock”,“year”:“2020”,“unstructured”:“Blalock,D.,Gonzalez-Ortiz,J.J.J.J.,Frankle,J.,Guttag,J.:神经网络修剪的状态是什么?Proc.Mach.Learn.Syst.2,129\u2013146(2020)”,“journal-title”:“”程序。机器。学习。系统。“},{”key“:”1003_CR80“,”unstructured“:”Liu,Z.,Sun,M.,Zhou,T.,Huang,G.,Darrell,T.:重新思考网络修剪的价值。In:《学习表征国际会议论文集》。(2019)“}”,{“key”:“1003_CR 81”,“unstructure”:“”Krishnamoorthi,R.:量化深层卷积网络以进行有效推断:白皮书。arXiv预印本arXiv:1806.08342(2018)“},{“key”:“1003_CR82”,“首页”:“598”,“卷”:“2”,“author”:“Y LeCun”,“year”:“1989”,“unstructured”:“LeCun,Y.,Denker,J.,Solla,S.:最佳脑损伤。Adv.Neural.Inf.Process.Syst.2,598\u2013605 R83“,”非结构化“:”Hassibi,B.,Stork,D.G.,Wolff,G.J.:最佳脑外科医生和一般网络修剪。摘自:IEEE神经网络国际会议论文集,第293\u2013299(1993)页“},{“key”:“1003_CR84”,“unstructured”:“Molchanov,D.,Ashukha,A.,Vetrov,D.:变分丢失稀疏化深度神经网络。摘自:《国际机器学习会议论文集》,第2498\u20132507(2017)页“doi-asserted-by“:”crossref“,”unstructured“:”Luo,J.-H.,Wu,J.,Lin,W.:Thinet:一种用于深层神经网络压缩的过滤器级剪枝方法。摘自:IEEE计算机视觉国际会议论文集,第5058\u20135066页(2017)“,“DOI”:“10.1109\/ICCV.2017.541”},{“key”:“1003_CR86”,“unstructured”:“Louizos,C.,Welling,M.,Kingma,D.P.:通过L0正则化学习稀疏神经网络。arXiv预印本arXiv:1712.01312(2017)”}crossref”,“非结构化”:“He,Y.,Zhang,X.,Sun,J.:加速深度神经网络的通道修剪。摘自:IEEE计算机视觉国际会议论文集,第1389\u20131397页(2017)“,“DOI”:“10.1109\/ICCV.2017.155”},{“key”:“1003_CR88”,“DOI-asserted-by”:“crossref”,“unstructured”:“Yu,R.,Li,A.,Chen,C.-F.,Lai,J.-H.,Morariu,V.I.,Han,X.,Gao,M.,Lin,C.-Y.,Davis,L.S.:Nisp:使用神经元重要性得分传播的修剪网络。摘自:IEEE计算机视觉和模式识别会议论文集,第9194\u20139203页(2018)“,“DOI”:“10.1109\/CVPR.2018.00958”},{“key”:“1003_CR89”,“DOI-asserted-by”:“crossref”,“unstructured”:“Mittal,D.,Bhardwaj,S.,Khapra,M.M.,Ravindran,B.:从随机剪枝中恢复:深度卷积神经网络的可塑性。摘自:2018年IEEE计算机视觉应用冬季会议(WACV)论文集,第848\u2013857页(2018年)“,”DOI“:”10.1109\/WACV.2018.00098“},{“key”:“1003_CR90”,“unstructured”:“Anwar,S.,Sung,W.:带粗剪枝的紧凑深度卷积神经网络。arXiv预印本arXiv:1610.09639(2016年)14014“,“卷”:“32”,“作者”:“P Michel”,“年份”:“2019”,“非结构化”:“Michel,P.,Levy,O.,Neubig,G.:十六个头真的比一个头好吗?高级神经。信息处理。系统。3214014\u201314024\u00a0(2019)”,“期刊标题”:“高级神经。信息处理。系统。“},{”key“:”1003_CR92“,”first page“:“2181”,“volume”:“30”,“author”:“J Lin”,“year”:“2017”,“unstructured”:“Lin,J.,Rao,Y.,LuYu,J.,Yang,L.,Xu,N.,YangJ.,Huang,T.:可伸缩神经网络。arXiv预印本arXiv:1812.08928(2018)“},{“key”:“1003_CR94”,“doi-asserted-by”:“crossref”,“unstructured”:“丁,X,张,X,马,N.,韩,J.,丁,G.,孙,J.:Repvgg:使vgg型convents再次伟大。摘自:IEEE\/CVF计算机视觉和模式识别会议论文集,第13733\u201313742(2021)页”,“doi”:“10.1109\/CVPR46437.2021.01352“},{“key”:“1003_CR95”,“doi-asserted-by”:“crossref”,“unstructured”:“Guo,Z.,Zhang,X.,Mu,H.,Heng,W.,Liu,Z.、Wei,Y.,Sun,J.:均匀采样的单路径单步神经架构搜索。摘自:《欧洲计算机视觉会议论文集》,第544\u2013560页。Springer(2020)“,“DOI”:“10.1007\/978-3-030-58517-4_32”},{“key”:“1003_CR96”,“DOI-asserted-by”:“crossref”,“unstructured”:“Yu,H.,Han,Q.,Li,J.,Shi,J..,Cheng,G.,Fan,B.:搜索你想要的:屏障面板nas用于混合精度量化。摘自:《欧洲计算机视觉会议论文集》,第1\u201316页。Springer(2020)“,“DOI”:“10.1007\/978-3-030-58545-7_1”},{“key”:“1003_CR97”,“unstructured”:“Zhang,B.,Chen,H.,Yang,L.,Chen1003_CR98“,”doi-asserted-by“:”crossref“,”unstructured“:”Chen,M.,Peng,H.,Fu,J.,&Ling,H.:Autoformer:搜索变压器进行视觉识别。《IEEE计算机视觉国际会议论文集》,第12270\u201312280(2021)页“,”DOI“:”10.1109\/ICCV48922.2021.01205“},{“key”:“1003_CR99”,“first page”:”8714“,”volume“:”34“,”author“:”M Chen“,”year“:”2021“,”unstructured“:”Chen,M.,Wu,K.,Ni,B.等人:搜索视觉变换器的搜索空间。Advv.Neural.Inf。过程。系统。34,8714\u20138726(2021)“,“新闻标题”:“高级神经。信息处理。系统。“},{”key“:”1003_CR100“,”doi-asserted-by“:”crossref“,”unstructured“:”Tang,Y.,Han,K.,Wang,Y..,Xu,C.,Guo,J.,Xu1003_CR101“,“首页”:“1742”,“卷”:“30”,“作者”:“U K\u00f6ster”,“年份”:“2017”,“非结构化”:“K\u00 f6ster,U.,Webb,T.,Wang,X.,Nassar,M.,Bansal,A.K.,Constable,W.,Elibol,O.,Gray,S.,Hall,S.和Hornof,L.:Flexpoint:一种用于深度神经网络有效训练的自适应数字格式。高级神经。信息处理。系统。30,1742\u20131752(2017)“,“新闻标题”:“高级神经。信息处理。系统。“},{”key“:”1003_CR102“,”unstructured“:”Micikevicius,P.,Narang,S.,Alben,J.,Diamos,G.,Elsen,E.,Garcia,D.,Ginsburg,B.,Houston,M.,Kuchaiev,O.,VenkateshDas,D.、Mellempudi,N.、Mudigere,D.、Kalamkar,D.、Avancha,S.、Banerjee,K.、Sridharan,S.,Vaidyanathan,K.,Kaul,B.、Georganas,E.:使用整数运算对卷积神经网络进行混合精度训练。arXiv预印本arXiv:1802.00930(2018)“},{“key”:“1003_CR104”,“first page”:”5151“,“volume”::“31”,“author”:“R Banner”,“year”:“2018”,“unstructured”:“Banner,R.,Hubara,I.,Hoffer,E.,Soudry,D.:神经网络8位训练的可扩展方法。Adv.neural.Inf.Process.Syst.31,515151\u20135159(2018)”,“journal-title”:“Adv.Neura.Inf。过程。系统。“},{”key“:”1003_CR105“,”unstructured“:”Wu,S.,Li,G.,Chen,F.,Shi,L.:深度神经网络中整数的训练和推理。in:《学习表征国际会议论文集》(2018)“}”,{“key”:“1003_CR106”,“doi-asserted-by”:“publisher”,“first page”:《70》,“doi”:“10.1016\/j.neunet.2019.12.27”,“volume”:”125“,”author“:”Y Yang“,”year“:”2020“,”unstructured“:”Yang,Y.,Deng,L.,Wu,S.,Yan,T.,Xie,Y.、Li,G.:训练具有完整8位整数的高性能大规模深度神经网络。神经网络。125,70\u201382(2020)“,“新闻标题”:“神经网络。“},{”key“:”1003_CR107“,”doi-asserted-by“:”crossref“,”unstructured“:”Zhu,F.,Gong,R.,Yu,F.、Liu,X.、Wang,Y.、Li,Z.、Yang,X.,Yan,J.:卷积神经网络的统一int8训练。摘自:IEEE\/CVF计算机视觉与模式识别会议论文集,1969\u20131979(2020)“,”doi“:”10.1109 \/CVPR42600.2020.00204“},{“key”:“1003_CR108”,“首页”:“28092”,“卷”:“34”,“作者”:“Z Liu”,“年份”:“2021”,“非结构化”:“Liu,Z.,Wang,Y.,Han,K.,Zhang,W.,Ma,S.,Gao,W.:视觉变压器的训练后量化。Adv.Neural.Inf.Process.Syst.34,28092\u201328103(2021)”,“日记标题”:“Adv.Neura.Inf。过程。系统。“},{”key“:”1003_CR109“,”unstructured“:”Li,Z.,Yang,T.,Wang,P.,Cheng,J.:Q-ViT:视觉变换器的完全可微量化。arXiv预印本arXiv:2201.07703(2022)“}”,{“key”:“1003_CR110”,“unstructure”:“Hinton,G.,Vinyals,O.,Dean,J.:在神经网络中提取知识。arXiv-预印本arXiv:1503.02531 2,(2015)”},}“key“:”1003_CR111“,”doi-asserted-by“:”crossref“,”unstructured“:”Bucilu\u01ce,C.,Caruana,R.,Niculescu-Mizil,A.:模型压缩。摘自:第十二届ACM SIGKDD知识发现和数据挖掘国际会议论文集,pp.535\u2013541(2006)“,“DOI”:“10.1145\/1150402.1150464”},{“key”:“1003_CR112”,“unstructured”:“Liu,S.,Yin,L.,Mocanu,D.C.,Pechenizkiy,M.:我们真的需要密集的过参数化吗?稀疏训练中的实时过参数化。摘自:《国际机器学习会议论文集》,第6989\u20137000(2021)页“},{“key”:“1003_CR113”,“unstructured”:“Jia,D.,Han,K.,Wang,Y.,Tang,Y..,Guo,J.,Zhang,C.,Tao,D.:通过细粒度流形蒸馏实现高效视觉变换。arXiv预印本arXiv:2107.01378(2021Romero,A.,Ballas,N.,Kahou,S.E.,Chassang,A.,Gatta,C.,Bengio,Y.:Fitnets:薄深网提示。摘自:学习代表国际会议记录。(2015)“},{”key“:”1003_CR115“,”unstructured“:”Zagoruyko,S.,Komodakis,N.:“更加关注注意力:通过注意力转移提高卷积神经网络的性能。In:Proceedings of the International Conference on Learning Representations(2017)”},“”key”:“1003_CR116”,“unstructure”:“”Koratana,A.,Kang,D.,Bailis,P.,Zaharia,M.:Lit:学习了模型压缩的中间表示训练。摘自:《机器学习国际会议论文集》,第3509\u20133518页。(2019)“},{“key”:“1003_CR117”,“doi-asserted-by”:“crossref”,“unstructured”:“Liu,Z.,Li,J.,Shen,Z.、Huang,G.、Yan,S.、Zhang,C.:通过网络精简学习有效卷积网络。摘自:IEEE国际计算机视觉会议论文集,pp.2736\u20132744(2017)”,“doi”:“10.1109\/ICCV.2017.298”},“key“:”1003_CR118“,”doi-asserted-by“:”crossref“,”unstructured“:”Tung,F.,Mori,G.:保持相似性的知识蒸馏。摘自:IEEE计算机视觉国际会议论文集,第1365\u20131374(2019)页“,”DOI“:”10.1109\/ICCV.2019.00145“},{“key”:“1003_CR119”,“DOI-asserted-by”:“crossref”,“unstructured”:“Tian,F.,Gao,B.,Cui,Q.,Chen,E.,Liu,T.-Y.:学习图聚类的深度表示法。在:《AAAI人工智能会议论文集》,第1293\u20131299(2014)页,“DOI”:“10.1609\/aai.v28i1.8916”},{“key”:“1003_CR120”,“非结构化”:“Huang,Z.,Wang,N.:喜欢什么:通过神经元选择性转移提取知识。arXiv预印本arXiv:11707.01219(2017)”},{“key”:“1003_CR121”,“非结构化”:“Wu,X.,Wu,Y.,Zhao,Y.:关于图像网分类任务的二值化神经网络。arXiv预印本arXiv:1604.03058(2016)“},{“key”:“1003_CR122”,“doi-asserted-by”:“crossref”,“unstructured”:“Park,W.,Kim,D.,Lu,Y.,Cho,M.:关系知识蒸馏。摘自:IEEE\/CVF计算机视觉与模式识别会议论文集,第3967\u20133976(2019)页”,“doi”:“10.1109\/CVPR.2019.00409”},}“key:”1003_CR123“,”doi-asserted-by“:”crossref“,”unstructured“:”Guo,J.,Han,K.,Wu,H.,Tang,Y.,Chen,X.,Wang,Y.Xu,C.:Cmt:卷积神经网络满足视觉变压器。收录于:IEEE计算机视觉和模式识别会议记录,第12175\u201312185(2022)页,“DOI”:“10.1109”,{“key”:“1003_CR124”,“DOI-asserted-by”:“crossref”,“unstructured”:“Sainath,T.N.、Kingsbury,B.、Sindhwani,V.、Arisoy,E.、Ramabhadran,B.:针对具有高维输出目标的深度神经网络训练的低秩矩阵分解。摘自:2013年IEEE声学、语音和信号处理国际会议论文集,第6655\u20136659页(2013)“,“DOI”:“10.1109\/ICASSP.2013.6638949”},{“key”:“1003_CR125”,“unstructured”:“Lebedev,V.,Ganin,Y.,Rakhuba,M.,Oseledets,I.,Lempitsky,V.:使用微调cp-decosition加速卷积神经网络。In:Proceedings of the International Conference on Learning Representations(2015)“},{”key“:”1003_CR126“,”first page“:“442”,“volume”:“22”,“author”:“A Novikov”,“year”:“2015”,“unstructured”:“Novikof,A.,Podoprikhin,D.,Osokin,A.,Vetrov,D.P.:神经网络张力化。Adv.neural.Inf.Process.Syst.22,442\u2013450(2015)”,“journal-title”:“”高级神经。信息处理。系统。“},{”key“:”1003_CR127“,”doi-asserted-by“:”crossref“,”unstructured“:”Jaderberg,M.,Vedaldi,A.,Zisserman,A.:用低阶展开加速卷积神经网络。In:Proceedings of the British Machine Vision Conference(2014)“,”doi“:”10.5244\/C.28.88“}”,{“key”:“1003_CR128”,“unstructure”:“”Chen,W.,Wilson,J.,Tyree,S.,Weinberger,K.,Chen,Y.:用散列技巧压缩神经网络。摘自:《机器学习国际会议论文集》,第2285\u20132294页(2015)“},{“key”:“1003_CR129”,“doi-asserted-by”:“publisher”,“first page”:”2889“,“doi”:“10.1109”,TPAMI.2018.2873305“,”volume“:”41“,”author“:”S Lin“,“year”:“2018”,“unstructured”:“Lin,S.,Ji,R.,Chen,C.,Tao,D.,Luo,J.:通过知识转移的低秩分解进行整体cnn压缩。IEEE传输。模式分析。机器。智力。41,2889\u20132905(2018)“,“期刊标题”:“IEEE Trans。模式分析。机器。智力。“},{”key“:”1003_CR130“,”unstructured“:”Child,R.,Gray,S.,Radford,A.,Sutskever,I.:使用稀疏变换器生成长序列。arXiv预打印arXiv:1904.10509(2019)“}”,{“key”:“1003_CR131”,“doi-asserted-by”:“crossref”,”unsructured”:“”Sandler,M.、Howard,A.、Zhu,M.,Zhmoginov,A.、Chen,L.-C.:Mobilenetv2:倒置残差和线性瓶颈。摘自:IEEE计算机视觉和模式识别会议记录,第4510\u20134520页(2018)“,”DOI“:”10.1109\/CVPR.2018.00474“},{“key”:“1003_CR132”,“DOI-asserted-by”:“crossref”,“unstructured”:“Howard,A.、Sandler,M.、Chu,G.、Chen,L.-C.、Chen、B.、Tan,M.,Wang,W.、Zhu,Y.、Pang,R.、Vasudevan,V.:搜索mobilenetv3。收录于:IEEE计算机视觉国际会议论文集,第1314\u20131324(2019)页“,”DOI“:”10.1109\/ICCV.2019.00140“},{“key”:“1003_CR133”,“DOI-asserted-by”:“crossref”,“unstructured”:“Ma,N.,Zhang,X.,Zheng,H.-T.,Sun,J.:Shufflenet v2:高效cnn架构设计的实用指南。摘自:《欧洲计算机视觉会议论文集》,第116\u2013131(2018)页“,“DOI”:“10.1007\/978-3-030-01264-9_8”},{“key”:“1003_CR134”,“unstructured”:“Sun,K.,Li,M.,Liu,D.,Wang,J.:Igcv3:高效深层神经网络的交错低阶群卷积。摘自:英国机器视觉会议论文,101,(2018)“},{”key“:”1003_CR135“,”doi-asserted-by“:”crossref“,”unstructured“:”Zhang,X.,Zhou,X.、Lin,M.、Sun,J.:Shufflenet:一种用于移动设备的极为高效的卷积神经网络。摘自:IEEE\/CVF计算机视觉和模式识别会议论文集,第6848\u20136856页(2018)“,”doi“:”10.1109\/CVPR.2018.00716“}”,{“key”:“”1003_CR136“,”doi-asserted-by“:”crossref“,”unstructured“:”Zhang,T.,Qi,G.-J.,Xiao,B.,Wang,J.:交错群卷积。摘自:IEEE计算机视觉国际会议论文集,第4373\u20134382页(2017)“,“DOI”:“10.1109\/ICCV.2017.469”},{“key”:“1003_CR137”,“DOI-asserted-by”:“crossref”,“unstructured”:“Huang,G.,Liu,S.,Van der Maaten,L.,Weinberger,K.Q.:凝聚:使用学习群卷积的高效密集集。收录于:IEEE计算机视觉和模式识别会议记录,第2752\u20132761页(2018)“,“DOI”:“10.1109\/CVPR.2018.00291”},{“key”:“1003_CR138”,“DOI-asserted-by”:“crossref”,“unstructured”:“Zhang,Z.,Li,J.,Shao,W.,Peng,Z.Z.,Zang,R.,Wang,X.,Luo,P.:通过可分组卷积神经网络的不同学习到组的通道。摘自:IEEE计算机视觉国际会议论文集,第3542\u20133551(2019)页“,”DOI“:”10.1109\/ICCV.2019.00364“},{“key”:“1003_CR139”,“first page”:”19974“,”volume“:”34“,”author“:”T Chen“,”year“:”2021“,”unstructured“:”Chen,T.、Cheng,Y.、Gan,Z.、Yuan,L.、Zhang,L.和Wang,Z.:视觉变换器中的稀疏性追逐:端到端探索。高级神经。信息处理。系统。34,19974\u201319988(2021)“,“新闻标题”:“高级神经。信息处理。系统。“},{“key”:“1003_CR140”,“unstructured”:“Evci,U.,Gale,T.,Menick,J.,Castro,P.S.,Elsen,E.:操纵彩票:制作所有彩票中奖人。摘自:《机器学习国际会议论文集》,第2943\u20132952(2020)页”},}卷:“8”,“作者”:“L Wu”,“年份”:“2021”,“非结构化”:“Wu,L.,Lin,X.,Chen,Z.,Huang,J.,Liu,H.,Yang,Y.:一种高效的二进制卷积神经网络,具有许多跳跃连接,用于fog计算。IEEE Internet Things J.8,11357\u201311367(2021)“,“journal-title”:“IEEE Internet Things J.”},{“key”:“1003_CR142”,“doi-asserted-by”:“crossref”,“unstructured”:“Singh,P.,Namboodiri,V.P.:SkipConv:计算效率高的深层CNN的跳过卷积。摘自:2020年国际神经网络联合会议(IJCNN)论文集,pp.1\u20138(2020)“,“DOI”:“10.1109\/IJCNN48605.2020.9207705”},{“key”:“1003_CR143”,“unstructured”:“Raghu,M.,Unterthiner,T.,Kornblith,S.,Zhang,C.,Dosovitskiy,A.:视觉变换器看到的是卷积神经网络吗?高级神经信息处理系统34,12116\u201312128(2021)”}Dong,Y.,Cordonnier,J.-B.,Loukas,A.:注意力并不是你所需要的全部:纯粹的注意力会随着深度成倍地降低排名。摘自:《机器学习国际会议论文集》,第2793\u20132803(2021)页“},{“key”:“1003_CR145”,“doi-asserted-by”:“crossref”,“unstructured”:“Hosseini,H.,Xiao,B.,Poovendran,R.:谷歌的云视觉api对噪音不稳定。摘自:第16届IEEE机器学习与应用国际会议(ICMLA)论文集,第101\u2013105页(2017)“,”DOI“:”10.1109\/IMLA.2017.0-172“},{“key”:“1003_CR146”,“unstructured”:“Recht,B.,Roelofs,R.,Schmidt,L.,Shankar,V.:CIFAR-10分类器是否概括为CIFAR-10?arXiv预印本arXiv:1806.00451(2018)”},“key“:”1003_CR147“,“非结构化”:“Morrison,K.,Gilby,B.,Lipchak,C.,Mattioli,A.,Kovashka,A.:探索腐败稳健性:视觉变压器和MLP-Mixers中的感应偏见。arXiv预印本arXiv:2106.13122(2021)“},{“key”:“1003_CR148”,“doi-asserted-by”:“crossref”,“unstructured”:“Cubuk,E.D.,Zoph,B.,Mane,D.,Vasudevan,V.,Le,Q.V.:自动增强:从数据中学习增强策略。摘自:IEEE\/CVF计算机视觉和模式识别会议论文集,第113\u2013123(2019)页”,“doi”:“10.1109\/CVPR.2019.00020“},{“key”:“1003_CR149”,“unstructured”:“Hendrycks,D.,Mu,N.,Cubuk,E.D.,Zoph,B.,Gilmer,J.,Lakshminarayanan,B.:Augmix:一种提高稳健性和不确定性的简单数据处理方法。In:Proceedings of the International Conference on Learning Representations(2020)”},}crossref”,“非结构化”:“Hendrycks,D.,Basart,S.,Mu,N.,Kadavath,S.、Wang,F.、Dorundo,E.、Desai,R.、Zhu,T.、Parajuli,S.和Guo,M.:稳健性的多方面:分布外泛化的批判性分析。收录于:IEEE计算机视觉国际会议论文集,第8340页,20138349(2021)“,”DOI“:”10.1109“/ICCV48922.2021.00823“},{“key”:“1003_CR151”,“unstructured”:“DeVries,T.,Taylor,G.W.:改进的带截断的卷积神经网络正则化。arXiv预印本arXiv:1708.04552(2017)”},“key“:”1003_CR152“,”doi-asserted-by“:”crossref“,”unstructured“:”Yun,S.,Han,D.,Oh,S.J.,Chun,S,Choe,J.,Yoo,Y.:Cutmix:训练具有可本地化特征的强分类器的正则化策略。摘自:IEEE计算机视觉国际会议论文集,第6023\u20136032(2019)页“,”DOI“:”10.1109\/ICCV.2019.00612“},{“key”:“1003_CR153”,“unstructured”:“Zhang,H.,Cisse,M.,Dauphin,Y.N.,Lopez-Paz,D.:混淆:超越经验风险最小化。In:Proceedings of the International Conference on Learning Representations(2018)“},{“key”:“1003_CR154”,“doi-asserted-by”:“crossref”,“unstructured”:“Cubuk,E.D.,Zoph,B.,Mane,D.,Vasudevan,V.,Le,Q.V.:自动增强:从数据中学习增强策略。arXiv预印本arXiv:1805.09501(2018)”,“doi”:“10.1109\/CVPR.2019.00020”}1003_CR155“,“非结构化”:“Lopes,R.G.,Yin,D.,Poole,B.,Gilmer,J.,Cubuk,E.D.:通过增加面片高斯,在不牺牲精度的情况下提高鲁棒性。arXiv预印本arXiv:1906.02611(2019)“},{“key”:“1003_CR156”,“unstructured”:“Verma,V.,Lamb,A.,Beckham,C.,Najafi,A1003_CR157”,“非结构化”:“Raghunathan,A.,Xie,S.M.,Yang,F.,Duchi,J.C.,Liang,P.:对抗性训练会损害泛化。arXiv-print arXiv:1906.06032(2019)“},{“key”:“1003_CR158”,“doi-asserted-by”:“crossref”,“unstructured”:“Modas,A.,Rade,R.,Ortiz-Jim\u00e9nez,G.,Moosavi-Dezfouli,S.-M.,Frossard,P.:PRIME:一些基本体可以增强对常见损坏的鲁棒性。arXiv:2112.13547(2021)”,“doi”:“10.1007\/978-3031-19806-9_36”},{“键”:“1003_CR159“,”doi-asserted-by“:”publisher“,”first page“:”1849“,”doi“:”10.1109\/LSP.2015.2438008“,”volume“:“22”,”author“:”J Chen“,”year“:”2015“,”unstructured“:”Chen,J.,Kang,X.,Liu,Y.,Wang,Z.J.:基于卷积神经网络的中值过滤取证。IEEE信号处理。莱特。22,1849\u20131853(2015)“,“日志标题”:“IEEE信号处理。莱特。“},{”key“:”1003_CR160“,”doi-asserted-by“:”crossref“,”unstructured“:”Bayar,B.,Stamm,M.C.:使用新卷积层进行通用图像操作检测的深度学习方法。摘自:《第四届ACM信息隐藏和多媒体安全研讨会论文集》,pp.5\u201310(2016)“,”doi“:”10.1145\/2909827.2930786“}”,{“key”:“”1003_CR161“,”doi-asserted-by“:”crossref“,”unstructured“:”Rao,Y.,Ni,J.:检测图像中拼接和复制移动伪造的深度学习方法。摘自:2016年IEEE信息取证与安全国际研讨会论文集,第1\u20136页(2016)“,“DOI”:“10.1109\/WIFS.2016.7823911”},{“key”:“1003_CR162”,“DOI-asserted-by”:“crossref”,“unstructured”:“Bappy,J.H.,Roy-Chowdhury,A.K.,Bunk,J.,Nataraj,L.,Manjunath,B.:利用空间结构定位操纵图像区域。摘自:IEEE计算机视觉国际会议论文集,第4970\u20134979页(2017)“,“DOI”:“10.1109\/ICCV.2017.532”},{“key”:“1003_CR163”,“DOI-asserted-by”:“crossref”,“unstructured”:“Wu,Y.,AbdAlmageed,W.,Natarajan,P.:Mantra-net:检测和定位具有异常特征的图像伪造的操纵跟踪网络。收录于:IEEE计算机视觉和模式识别会议论文集,第9543\u20139552(2019)页,“DOI”:“10.1109\/CVPR.2019.00977”},{“key”:“1003_CR164”,“DOI-asserted-by”:“crossref”,“unstructured”:“Zhou,P.,Han,X.,Morariu,V.I.,Davis,L.S.:学习图像操作检测的丰富功能。摘自:IEEE计算机视觉和模式识别会议记录,第1053\u20131061(2018)页“,”DOI“:”10.1109\/CVPR.2018.00116“},{“key”:“1003_CR165”,“DOI-asserted-by”:“crossref”,“unstructured”:“Bi,X.,Zhang,Z.,Xiao,B.:用于图像拼接伪造检测和定位的现实变换对抗生成器。收录于:IEEE计算机视觉国际会议论文集,第14294\u201314303(2021)页“,”DOI“:”10.1109\/ICCV48922.2021.01403“},{”key“:”1003_CR166“,”DOI-asserted-by“:”crossref“,”unstructured“:”Hao,J.,Zhang,Z.,Yang,S.,Xie,D.,Pu,S.:法医学:图像伪造定位与高度自我关注。收录于:IEEE计算机视觉国际会议论文集,第15055\u201315064(2021)页,“DOI”:“10.1109”,{“key”:“1003_CR167”,“DOI-asserted-by”:“crossref”,“unstructured”:“Nguyen,E.,Bui,T.,Swaminathan,V.,Collomosse,J.:OSCAR-Net:图像属性的以对象为中心的场景图形关注。收录于:IEEE计算机视觉国际会议论文集,第14499页\u201314508(2021)“,“DOI”:“10.1109”\/ICCV48922.2021.01423“},{“key”:“1003_CR168”,“DOI-asserted-by”:“crossref”,“unstructured”:“Bhojanapalli,S.、Chakrabarti,A.、Glassner,D.、Li,D.、Unterthiner,T.、Veit,A.:了解图像分类变压器的鲁棒性。摘自:IEEE计算机视觉国际会议论文集,第10231\u201310241(2021)页,“DOI”:“10.1109”,{“key”:“1003_CR169”,“unstructured”:“Szegedy,C.、Zaremba,W.、Sutskever,I.、Bruna,J.、Erhan,D.、Goodfellow,I.和Fergus,R.:神经网络的有趣特性。In:Proceedings of the International Conference on Learning Representations(2013)“},{“key”:“1003_CR170”,“unstructured”:“Shaham,U.,Yamada,Y.,Negahban,S.:理解对抗训练:通过稳健优化提高神经网络的局部稳定性。arXiv预印本arXiv:1511.05432crossref”,“非结构化”:“Moosavi-Dezfouli,S.-M.,Fawzi,A.,Frossard,P.:Deepfoul:愚弄深层神经网络的简单而准确的方法。摘自:IEEE计算机视觉和模式识别会议记录,第2574\u20132582页(2016)“,”DOI“:”10.1109\/CVPR.2016.282“},{”key“:”1003_CR172“,”unstructured“:”Tram\u00e8r,F.,Kurakin,A.,Papernot,N.,Goodfellow,I.,Boneh,D.,McDaniel,P.:合奏对抗性训练:攻击和防御。arXiv预印本arXiv:1705.07204(2017)“},{“key”:“1003_CR173”,“unstructured”:“Wong,E.,Rice,L.,Kolter,J.Z.:快速胜于自由:重温对抗性训练。In:《学习代表性国际会议论文集》(2020)”}Madry,A.,Makelov,A.,Schmidt,L.,Tsipras,D.,Vladu,A.:建立抵抗对抗性攻击的深度学习模型。摘自:《学习表征国际会议论文集》(2018)“},{“key”:“1003_CR175”,“first page”,“227”,“volume”:”32“,“author”:“D Zhang”,“year”:“2019”,“unstructured”:“Zhang,D.,Zhang、T.,Lu,Y.,Zhu,Dong,B.:你只传播一次:通过最大化原理加速对抗训练。Adv.Neural.Inf。过程。系统。32,227\u2013238(2019)“,“新闻标题”:“高级神经。信息处理。系统。},{“key”:“1003_CR176”,“doi-asserted-by”:“crossref”,“unstructured”:“Shell,K.:蓬特里亚金最大值原理在经济学中的应用。数学系统理论与经济学I/II,第241\u2013292页。Springer(1969)“,“DOI”:“10.1007\/978-3-642-46196-5_12”},{“key”:“1003_CR177”,“unstructured”:“Zhang,H.,Yu,Y.,Jiao,J.,Xing,E.,El Ghaoui,L.,Jordan,M.:稳健性和准确性之间的理论原则性权衡。摘自:《国际机器学习会议论文集》,第7472\u20137482页非结构化”:“Cisse,M.,Bojanowski,P.,Grave,E.,Dauphin,Y.,Usunier,N.:Parseval网络:提高对抗性示例的鲁棒性。在:《国际机器学习大会论文集》,第854\u2013863(2017)页“},{“key”:“1003_CR179”,“first page”:“417”,“volume”:“31”,“author”:“Z Yan”,“year”:“2018”,“nonstructured”:“Yan,Z.,Guo,Y.,Zhang,C.:深度防御:训练具有提高对抗鲁棒性的dnns。Adv.Neural.Inf.Process.Syst.31417\u2013426(2018)”新闻标题“:”高级神经。信息处理。系统。“},{”key“:”1003_CR180“,”first page“:“8322”,“volume”:“31”,“author”:“Y Song”,“year”:“2018”,“unstructured”:“Song,Y.,Shu,R.,Kushman,N.,Ermon,S.:用生成模型构建无限制的对抗性示例。Adv.Neural.Inf.Process.Syst.31,8322\u20138333(2018)”,“journal-title”:“Adv.Neral.Inf.Process.Syst.”},}”key:“”1003_CR181“,“非结构化”:“Samangouei,P.,Kabkab,M.,Chellappa,R.:防御型:使用生成模型保护分类器免受对手攻击。在:《国际学习表征大会论文集》,第1\u201317(2018)页“},{“key”:“1003_CR182”,“非结构化”:“Mu,N.,Wagner,D.:用稳健的自我注意防御对抗性补丁。在:ICML 2021深度学习中的不确定性和稳健性研讨会(2021)”},{“key”:“1003_CR183”,“非结构化”:“Wickramanayake,S.,Hsu,W.,Lee,M.L.:走向完全可解释的深层神经网络:我们已经到了吗?arXiv预印本arXiv:2106.13164(2021)“},{“key”:“1003_CR184”,“doi-asserted-by”:“crossref”,“unstructured”:“Zhou,B.,Khosla,A.,Lapedriza,A.,Oliva,A.,Torralba,A.:学习区分性定位的深层特征。摘自:IEEE\/CVF计算机视觉和模式识别会议论文集,pp.2921\u20132929(2016)”,“doi”:“10.1109\/CVPR.2016.319“},{“key”:“1003_CR185”,“doi-asserted-by”:“crossref”,“unstructured”:“Selvaraju,R.R.,Cogswell,M.,Das,A.,Vedantam,R.,Parikh,D.,Batra,D.:Grad-cam:通过基于梯度的定位从深层网络中进行视觉解释。摘自:IEEE国际计算机视觉会议论文集,第618\u2013626页(2017)”,“DOI“:”10.1109\/ICCV.2017.74“},{“key”:“1003_CR186”,“unstructured”:“Kim,B.、Wattenberg,M.、Gilmer,J.、Cai,C.、Wexler,J.和Viegas,F.:特征属性之外的可解释性:用概念激活向量进行定量测试(tcav)。摘自:《国际机器学习会议论文集》,pp.2668\u20132677(2018)”}1003_CR187“,”doi-asserted-by“:”crossref“,”unstructured“:”Zheng,H.,Fu,J.,Mei,T.,Luo,J.:学习多注意卷积神经网络用于细粒度图像识别。摘自:IEEE计算机视觉国际会议论文集,第5209\u20135217页。(2017)“,”DOI“:”10.1109\/ICCV.2017.557“},{“key”:“1003_CR188”,“DOI-asserted-by”:“crossref”,“unstructured”:“Huang,Z.,Li,Y.:通过区域分组实现可解释和准确的细粒度识别。摘自:IEEE计算机视觉与模式识别会议论文集,第8662\u20138672页(2020)”,“DOI”:“10.1109\/CVPR42600.2020.00869”},{“问题”:“3”,“关键”:“1003_CR189”,“首页”:“2431”,“卷”:“25”,“作者”:“V Pillai”,“年份”:“2021”,“非结构化”:“Pillai,V.,Pirsiavash,H.:解释一致的可解释模型。UMBC学生收藏25(3),2431\u20132439,“非结构化”:“Chefer,H.,Gur,S.,Wolf,L.:关注可视化之外的变压器可解释性。摘自:IEEE计算机视觉和模式识别会议论文集,第782\u2013791(2021)页”,“DOI”:“10.1109”,{“key”:“1003_CR191”,“DOI-asserted-by”:“publisher”,“first-page”:“1084”,“DOI”:“10.1007\/s11263-017-1059-x”,“volume”:“126”,“author”:“J Zhang”,“year”:“2018”,“unstructured”:“Zhang,J.、Bargal,S.A.、Lin,Z.、Brandt,J.,Shen,x.、Sclaroff,S.:通过激发backprop.Int.J.Compute.Vis.126、1084\u20131102(2018)”,“journal-title”:“Int.J.Compute.Vis.”},{“key”:”1003_CR192“,“doi-asserted-by”:“crossref”,“unstructured”:“Williford,J.R.,May,B.B.,Byrne,J.:可解释的人脸识别。摘自:《欧洲计算机视觉会议论文集》,第248\u2013263页。Springer(2020)“,“DOI”:“10.1007\/978-3-030-58621-8_15”},{“key”:“1003_CR193”,“unstructured”:“Petsiuk,V.,Das,A.,Saenko,K.:Rise:解释黑盒模型的随机输入采样。arXiv预印本arXiv:1806.07421(2018)”}Smilkov,D.,Thorat,N.,Kim,B.,Vi\u00e9gas,F.,Wattenberg,M.:Smoothgrad:通过添加噪音消除噪音。arXiv预印本arXiv:1706.03825(2017)“},{“key”:“1003_CR195”,“unstructured”:“Springenberg,J.T.,Dosovitskiy,A.,Brox,T.,Riedmiller,M.:争取简单性:全卷积网络。In:国际学习代表大会研讨会论文集(2015)”},}10.1371,“journal.pone.0130140”,“volume”:“10”,“author”:“S Bach”,“year”:“2015”,“unstructured”:“Bach,S.,Binder,A.,Montavon,G.,Klauschen,F.,M\u00fcller,K.-R.,Samek,W.:通过分层相关传播对非线性分类器决策的像素解释。PLoS\u00a0One 10,e0130140(2015)“,“journal-title”:“PLoS\u 00a0one”},{“key”:“1003_CR197”,“unstructured”:“Shrikumar,A.,Greenside,P.,Kundaje,A.:通过传播激活差异学习重要特征。摘自:《国际机器学习会议论文集》,第3145\u20133153页。(2017)“},{“key”:“1003_CR198”,“unstructured”:“Sundararajan,M.,Taly,A.,Yan,Q.:深度网络的公理化归因。摘自:《国际机器学习会议论文集》,第3319\u20133328页(2017)”},},“key“:”1003_CR199“,”doi-asserted-by“:”crossref“,“unsructured“:”Li,O.,Liu,H.,Chen,C.,Rudin,C.:通过原型深入学习基于案例的推理:解释其预测的神经网络。摘自:《AAAI人工智能会议论文集》,第3530\u20133537页(2018)“,“DOI”:“10.1609\/AAAI.v32i1.11771”},{“key”:“1003_CR200”,“DOI-asserted-by”:“crossref”,“unstructured”:“Ancona,M.,Ceolini,E.,\u00d6ztireli,C.,Gross,M.:更好地理解深度神经网络的基于梯度的属性方法。摘自:《学习表征国际会议论文集》(2018),“DOI”:“10.1007\/978-3-030-28954-6_9”},{“key”:“1003_CR201”,“DOI-asserted-by”:“crossref”,“unstructured”:“Voita,E.,Talbot,D.,Moiseev,F.,Sennrich,R.,Titov,I.:分析多头自我关注:专业化的头会起重任,其余的可以修剪。摘自:《计算语言学协会年会论文集》,第5797\u20135808页(2019)“,”DOI“:”10.18653\/v1\/P19-1580“},{“key”:“1003_CR202”,“first page”:”8928“,”volume“:”32“,”author“:”C Chen“,”year“:”2019“,”unstructured“:”Chen,C.,Li,O.,Tao,D.,Barnett,A.,Ruding,C.,Su,J.K.:这看起来像是:可解释图像识别的深度学习。高级神经。信息处理。系统。32,8928\u20138939(2019)“,“新闻标题”:“高级神经。信息处理。系统。“},{”key“:”1003_CR203“,”unstructured“:”Koh,P.W.,Liang,P.:通过影响函数理解黑盒预测。摘自:机器学习国际会议论文集,第1885\u20131894页(2017)“}],”container-title“:[”Multimedia Systems“],”original-title”:[],“language”:“en”,“link”:[{”URL“:”https:\/\/link.springer.com/content\/pdf\/10.1007\/s00530-022-01003-8.pdf“,“content-type”:“application\/pdf”,“content-version”:“vor”,“intended-application”:“text-mining”},{“URL”:“https:\\\/link.sringer.com/article\/10.10007\/s0050-022-0103-8\/fulltext.html”,“content-type“:”text\/html“,”content-versiion“:”vor“,“:”text-mining“},{“URL”:“https:\/\/link.springer.com/content\/pdf\/10.1007\/s00530-022-01003-8.pdf”,“content-type”:“application\/pdf”、“content-version”:“vor”,“intended-application”:“similarity-checking”}],“deposed”:{“date-parts”:[2023,2,27]],“date-time”:”2023-02-27T20:20:29Z“,“timestamp”:1677528629000},“score”:1,“资源”:{“主资源”:}“URL”:”https:\/\/link.springer.com/10.1007\/s00530-022-01003-8“}},”副标题“:[],”短标题“:[],”已发布“:{”日期部分“:[2022,10,19]]},“引用计数”:203,“日志发布”:{“发布”:“2”,“发布-发布”:.doi.org \/10.1007\/s00530-022-01003-8“,”关系“:{},”ISSN“:[”0942-4962“,”1432-1882“],”issn-type“:[{”value“:”0942-4962“,”type“:”print“},{”value“:”1432-1881“,”类型“:”electronic“}],”subject“:[],”published“:{”date-parts“:[2022,10,19]},”assertion“:[[{“value”:“2022年5月2日”,”order“:1,”name“:”received“,”label“:”received“,“group”:{“name”:“Article History”,“label”:“Article”历史“}},{“value”:“2022年9月7日”,“order”:2,“name”:“accepted“,”label“:”accepted”,“group”:{“name”:“Article History”,“label”:“文章历史”}},{“value”:“2022年10月19日”,“订单”:3,“名称”:“first_online”,“标签”:“first online”,”group“:{”name“:”Article History“,”标签“:”文章历史“值”:“作者声明没有相互竞争的利益。“,”order“:2,”name“:”Ethics“,”group“:{”name“:”EthicsHeading“,”label“:”利益冲突“}}]}}