{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期-部分”:[[2024,9,7]],“日期-时间”:“2024-09-07T10:16:42Z”,“时间戳”:1725704202177},“出版商位置”:“美国纽约州纽约市”,“参考-计数”:40,“出版者”:“ACM”,“资助者”:[{“DOI”:“10.13039\/501100001809”,“名称”:“国家自然科学基金”,“doi-asserted-by”:“publisher”,“adward”:[“62102300,61960206014,62121001”],“id”:[{“id”:“10.13039\/501100001809”,“id类型”:“doi”,“asserted by”:“publisher”}]],“内容域”:{“domain”:[dl.acm.org“],“crossmark-restriction”:true},“shortcontainer-title”:[],“published-print”:{“date-parts”:[[2022,10,10]]},“doi”:“10.1145\/3503161.3548065”,“类型”:“proceedings-article”,“created”:{“date-parts”:[[2022,10,10]],“date-time”:“2022-10-10T11:42:46Z”,“timestamp”:1665402166000},“page”:“4291-4299”,“update-policy”:”http://\/dx.doi.org\/10.1145\/crossmark-policy“,”source“Crossref”,“is-referenced-by-count”:4,“title”:[“净化器:通过异常激活抑制对预训练模型进行即插即用后门缓解”],“前缀”:“10.1145”,“卷”:“34”,“作者”:[{“给定”:“小余”,“家庭”:“张”,“序列”:“第一”,“隶属关系”:[}“名称”:“西安西电大学&密码学国家重点实验室”}]},{“已知”:“榆林”,“家族”:“金”,“sequence”:“additional”,“affiliation”:[{“name”:“西安西安西安西安西电大学”}]},{“given”:“Tao”,“family”:“Wang”,“sequence”:“additive”,“fediation”:[{“name”:“中国西安西安西电大学”}]},}“giving”:“Jian”,“家庭”:“Lou”,“serquence”:“additionable”,“filiation“[{”name“:“广州西电大学“:”陈“,“sequence”:“additional”,“affiliation”:[{“name”:“中国西安西电大学”}]}],“member”:“320”,“published-on-line”:{“date-parts”:[[2022,10]]},“reference”:[}“key”:“e_1_3_2_2_1_1”,“first page”:”1505“,“volume-title”:“30th USENIX Security Symposium(USENIX-Security 21)”,“author”:“Bagdasaryan Eugene”,“year”:“2021”,“非结构化”:“尤金·巴格达萨利安(Eugene Bagdasaryan)和维塔利·什马提科夫(Vitaly Shmatikov)。深度学习模型中的盲后门。第30届USENIX安全研讨会(USENIX-Security 21),第1505-1521页,2021年。尤金·巴格达萨里安(Eugene Bagdassaryan)与维塔利·阿什马提科夫(Vitaly-Shmatikov.)。第30次USENIX-Security研讨会(USENIX Security 21),1505-1521201页。”},{“卷标题”:“通过通道激活抑制提高对抗性鲁棒性。arXiv预印本arXiv:2130.8307”,“年份”:“2021”,“作者”:“白杨”,“密钥”:“e_1_3_2_2_1”,“非结构化”:“杨白、曾玉元、蒋勇、夏树涛、马兴军和王毅森。通过信道激活抑制提高对抗性鲁棒性。arXiv预印本arXiv:2103.083072021。杨白、曾玉元、江勇、夏树涛、马兴军和王毅森。利用信道激活抑制改善对抗性鲁棒。arXiv预印本arXiv:2103.083072021.“},{”key“:”e_1_3_2_2_3_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/ICIP.2019.8802997”},“volume-title”:“Davide Del Testa”,“year”:“2016”,“author”:“Bojarski Mariusz”,“key”:“e_3_2_4_1”,“unstructured”:“Mariusz Bojarski、Davide Del Testa、Daniel Dworakowski、Bernhard Firner、Beat Flepp、Prason Goyal、Lawrence D Jackel、Mathew Monfort、Urs Muller、Jiakai Zhang等。针对自动驾驶汽车的端到端学习。arXiv预印arXiv:1604.073162016。Mariusz Bojarski、Davide Del Testa、Daniel Dworakowski、Bernhard Firner、Beat Flepp、Prason Goyal、Lawrence D Jackel、Mathew Monfort、Urs Muller、Jiakai Zhang等。针对自动驾驶汽车的端到端学习。arXiv预印本arXiv:1604.07316,2016。“},{“volume-title”:“使用数据中毒对深度学习系统进行有针对性的后门攻击。arXiv preprint arXiv:1712.05526”,“年份”:“2017”,“作者”:“陈新云”,“密钥”:“e_1_3_2_5_1”,“非结构化”:“陈新云(Xinyun Chen)、刘畅(Chang Liu)、李波(Bo Li)、卢金伯利(Kimberly Lu)和宋曙光(Dawn Song)。利用数据中毒对深度学习系统进行有针对性的后门攻击。arXiv预印arXiv:1712.055262017。陈新云(Xinyun Chen)、刘畅(Chang Liu)、李波(Bo Li)、卢金伯利(Kimberly Lu)和宋曙光(Dawn Song)。利用数据中毒对深度学习系统进行有针对性的后门攻击。arXiv预印本arXiv:1712.05526,2017。“},{“volume-title”:“伯特:用于语言理解的深层双向变形金刚的预训练。arXiv预先印本arX iv:1810.04805”,“年份”:“2018”,“作者”:“Devlin Jacob”,“key”:“e_1_3_2_2_6_1”,《非结构化》:“雅各布·德夫林(Jacob Devlin)、张明伟(Ming Wei Chang)、肯顿·李(Kenton Lee)和克里斯蒂娜·图塔诺娃(Kristina Toutanova)。伯特:为语言理解预先训练深层双向转换器。arXiv预印arXiv:1810.048052018。雅各布·德夫林(Jacob Devlin)、张明伟(Ming Wei Chang)、肯顿·李(Kenton Lee)和克里斯蒂娜·图塔诺娃(Kristina Toutanova)。伯特:为语言理解预先训练深层双向转换器。arXiv预印本arXiv:1810.04805,2018。“},{“volume-title”:“皮肤癌皮肤病学深度神经网络分类。自然,542(7639):115-118”,“年份”:“2017”,“作者”:“Esteva Andre”,“关键”:“e_1_3_2_7_1”,“非结构化”:“安德烈·埃斯特瓦(Andre Esteva)、布雷特·库普雷尔(Brett Kuprel)、罗伯托·阿诺沃亚(Roberto A Novoa)、贾斯汀·科(Justin Ko)、苏珊·斯沃特(Susan MSwetter)、海伦·M·布鲁(Helen M Blau)和塞巴斯蒂。利用深度神经网络对皮肤癌进行皮肤科级别的分类。《自然》,542(7639):115-1182017年。安德烈·埃斯特瓦(Andre Esteva)、布雷特·库普雷尔(Brett Kuprel)、罗伯托·阿诺沃亚(Roberto A Novoa)、贾斯汀·科(Justin Ko)、苏珊·斯沃特(Susan MSwetter)、海伦姆·布鲁(HelenM Blau)和塞巴斯蒂安·特伦(Sebastian Thrun)。利用深度神经网络对皮肤癌进行皮肤科级别的分类。nature,542(7639):115-118,2017。“},{”key“:”e_1_3_2_2_8_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3359789.3359790”},“key”:“e_1_ 3_2_9_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/3340531.3412130“}”,{“volume-title”:“Badnets:识别机器学习模型供应链中的漏洞。arXiv预印本arXiv:1708.06733“,”年份“:”2017年”,“作者”:“顾天宇”,“关键”:“e_1_3_2_2_10_1”,“非结构化”:“顾天宇、布伦丹·多兰·加维特和西德哈特·加格。Badnets:识别机器学习模型供应链中的漏洞。arXiv预印arXiv:1708.067332017。Gu Tianyu,Brendan Dolan-Gavitt和Siddharth Garg。Badnets:识别机器学习模型供应链中的漏洞。arXiv预印本arXiv:1708.067332017.“},{”key“:”e_1_3_2_2_11_1“,”doi-asserted-by“:”publisher“,”doi“:”10.1109\/CVPR.2016.90“}”,{“key”:“e_1_ 3_2_12_1”,“首页”:“34”,“article-title”:“训练中毒数据的干净模型”,“author”:“Li Yige”,“年份”:“2021”,”非结构化“:”李一歌、吕锡祥、诺登斯·科伦、吕玲娟、李波和马兴军。反后门学习:针对有毒数据培训干净模型。《神经信息处理系统进展》,342021。李一歌、吕锡祥、诺登斯·科伦、吕玲娟、李波和马兴军。反后门学习:针对有毒数据培训干净模型。《神经信息处理系统的进展》,第34期,2021年。“,”期刊标题“:“神经信息处理体系的进展”},{“卷-时间”:“神经注意蒸馏:清除深层神经网络的后门触发器。arXiv预印本arXiv:2101.05930”,“年份”:“2021”,“作者”:“李一格”,“密钥”:“e_1_3_2_13_1”,“非结构化”:“李一歌、吕锡祥、科伦、吕玲娟、李波和马兴军。神经注意力提取:清除深层神经网络的后门触发器。arXiv预打印arXiv:2101.059302021。李一歌、吕锡祥、科伦、吕玲娟、李波和马兴军。神经注意蒸馏:清除深层神经网络的后门触发器。arXiv预印本arXiv:2101.059302021.“},{“卷标题”:“通过不可见扰动在卷积神经网络模型中的后门嵌入。arXiv预印本arXiv:1808.10307”,“年份”:“2018”,“作者”:“廖聪”,“密钥”:“e_1_3_2_14_1”,“非结构化”:“廖聪、钟浩蒂、安娜·斯奎奇亚里尼、朱森村和大卫·米勒。通过不可见扰动将后门嵌入卷积神经网络模型。arXiv预印arXiv:1808.103072018。廖聪、钟浩蒂、安娜·斯奎奇亚里尼、朱森村和大卫·米勒。通过不可见扰动将后门嵌入卷积神经网络模型。arXiv预印本arXiv:1808.103072018。“},{”key“:”e_1_3_2_2_15_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/ICCV48922.2021.00773”},“volume-title”:“神经网络特洛伊攻击”,“year”:“2017”,“author”:“Liu Yingqi”,“key”:“e_3_2_16_1”,“unstructured”:“刘英琪、马石青、尤斯拉·阿费尔、李文川、翟隽、王伟航和张湘玉。针对神经网络的木马攻击。2017 . 刘英琪、马石青、尤斯拉·阿费尔、李文川、翟隽、王伟航和张湘玉。针对神经网络的木马攻击。2017.“},{”key“:”e_1_3_2_2_17_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/ICCD.2017.16”},“key”:“e_1_3_2_18_1”,“doi-assert-by”:“publisher”,”doi“:”10.1007\/978-3-030-00470-5_13“}”,{3363216“},{”key“:”e_1_3_2_2_20_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1007\/978-3-030-59016-1_28“},{“key”:“e_1_3_2_21_1”,“首页”:“182”,“卷标”:“欧洲计算机视觉会议”,“作者”:“刘云飞”,“年份”:“2020”,“非结构化”:“刘云飞,马兴军,詹姆斯·贝利,冯璐。反射后门:对深层神经网络的自然后门攻击。在欧洲计算机视觉会议上,第182-199页。斯普林格,2020年。刘云飞、马兴军、詹姆斯·贝利和冯璐。反思后门:对深层神经网络的自然后门攻击。在欧洲计算机视觉会议上,第182-199页。Springer,2020年。“},{”key“:”e_1_3_2_22_1“,”doi-asserted-by“:”publisher“,”doi“:”10.1016\/j.ins.2018.12.015“}”,{“key”:“e_1_ 3_2_23_1”,“doi-assert-by”:“publisher”,”doi:“10.1109\/TPDS.2022.3167434”},“volume-title”:“Wanet——基于无形翘曲的后门攻击。arXiv预印本arXiv:21022.10369”,“年份”:“2021年”,“作者”:“阮安”,“密钥”:“e_1_3_2_24_1“,“非结构化”:“Anh Nguyen和Anh Tran。恶意——基于难以察觉的翘曲的后门攻击。arXiv预打印arXiv:2102.103692021。Anh Nguyen和Anh Tran。恶意——基于难以察觉的翘曲的后门攻击。arXiv预印本arXiv:2102.103692021。“},{”key“:”e_1_3_2_25_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145 \/3433210.3453108”},“key”:“e_1_ 3_2_2_26_1”,“doi-assert-by”:“publisher”,”doi“:”10.1609 \/aaaai.v34i07.6871“}”,{“volume-title”:“毒蛙!”!针对神经网络的清洁标签中毒攻击。神经信息处理系统进展,31”,“年份”:“2018年”,“作者”:“Shafahi Ali”,“关键”:“e_1_3_2_27_1”,《非结构化》:“阿里·沙法希,W Ronny Huang,Mahyar Najibi,Octavian Suciu,Christoph Studer,Tudor Dumitras,Tom Goldstein。毒蛙!针对神经网络的清洁标签中毒攻击。神经信息处理系统进展,2018年31月。Ali Shafahi、W Ronny Huang、Mahyar Najibi、Octavian Suciu、Christoph Studer、Tudor Dumitras和Tom Goldstein。毒蛙!针对神经网络的清洁标签中毒攻击。神经信息处理系统进展,2018年第31期。“},{”key“:”e_1_3_2_28_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/TDSC.2021.3123586”},“key”:“e_1_ 3_2_29_1”,“doi-assert-by”:“publisher”,”doi“:”10.1109\/ICME51207.2021.9428437“}”,{“volume-title”:“Clean-label后门攻击”,“年份”:“2018”,“作者”:“Turner”r Alexander“,”key“:”e_1_3_2_2_30_1“,“非结构化”:“亚历山大·特纳(Alexander Turner)、迪米特里斯·齐普拉斯(Dimitris Tsipras)和亚历山大·马德里(Aleksander Madry)。干净的后门攻击。2018 . Alexander Turner、Dimitris Tsipras和Aleksander Madry。干净的后门攻击。2018.“},{“key”:“e_1_3_2_31_1”,“doi asserted by”:“publisher”,“doi”:“10.18653\/v1\/2021.naacl main.87”},{“key”:“e_1_3_2_32_1”,“首页”:“16913”,“文章标题”:“对抗性神经元修剪净化后门深度模型”,“卷”:“34”,“作者”:“吴东贤”,“年份”:“2021”,“非结构化”:“吴东仙和王益森。对抗性神经元修剪可以净化后门的深层模型。神经信息处理系统进展,34:16913--169252021。吴东仙和王益森。对抗性神经元修剪可以净化后门的深层模型。神经信息处理系统进展,34:16913--169252021。”,“新闻标题”:“神经信息处理体系进展”},{“卷标”:“第30届{USENIX}安全研讨会({USENIX}Security 21)”,“年份”:“2021”,“作者”:“西兆涵”,“密钥”:“e_1_3_2_33_1”,“非结构化”:“兆涵西,任鹏,纪寿灵,王婷。图形后门。2021年,第30届{USENIX}安全研讨会({USENIX}安全21)。奚兆涵、任鹏、季寿玲和王婷。图形后门。在2021年第30届{USENIX}安全研讨会上,“},{卷-时间”:“Xlnet:语言理解的广义自回归预训练。神经信息处理系统进展,32”,“年份”:“2019”,“作者”:“杨志林”,“密钥”:“e_1_3_2_34_1”,“非结构化”:“杨志林(Zhilin Yang)、戴子航(Zihang Dai)、杨一鸣(Yiming Yang)和杰米·卡博内尔(Jaime Carbonell)、俄罗斯总统萨拉库丁诺夫(Russ R Salakhutdinov)和Quoc V Le。Xlnet:用于语言理解的广义自回归预训练。神经信息处理系统的进展,32019。杨志林(Zhilin Yang)、戴子航(Zihang Dai)、杨一鸣(Yiming Yang)和杰米·卡博内尔(Jaime Carbonell)、俄罗斯总统萨拉库丁诺夫(Russ R Salakhutdinov)和Quoc V Le。Xlnet:用于语言理解的广义自回归预训练。《神经信息处理系统的进展》,32019.“},{“key”:“e_1_3_2_35_1”,“doi由”:“publisher”断言,“doi”:“10.1145\/3319535.3354209”},{“key”:“e_1_3_2_36_1”,“doi由”:“publisher”断言,“doi”:“10.1145\3238147.3238187”},{“key”:“e_1_3_2_37_1”,“doi由”:“publisher”断言,“doi”:“10.1109\/TII.2019.2941244”},{“密钥”:“e_1_3_2_38_1“,“doi-asserted-by”:“publisher”,“doi”:“10.1016\/j.ins.2020.10.010”},{“volume-title”:“Karthikeyan Natesan Ramamurthy,Xue Lin.损失场景和对抗鲁棒性中的桥接模式连通性。arXiv预印本arXiv:2005.0060”,“年份”:“2020”,“作者”:“赵普”,“key”:“e_13_2_39_1”,”“非结构化”:“赵璞、陈品玉、佩耶尔·达斯、卡西基安·纳特桑·拉马默西和薛琳。损失情景下的桥接模式连通性和对抗鲁棒性。arXiv预打印arXiv:2005.0006020。赵璞、陈品玉、佩耶尔·达斯、卡西基安·纳特桑·拉马默西和薛琳。损失情景下的桥接模式连通性和对抗鲁棒性。arXiv预印本arXiv:2005.0006020。“},{“key”:“e_1_3_2_2_40_1”,“首页”:“7614”,“卷时间”:“机器学习国际会议”,“作者”:“朱晨”,“年份”:“2019”,“非结构化”:“陈竺、W Ronny Huang、Li Hengduo、Gavin Taylor、Christoph Studer和Tom Goldstein。对深层神经网络的可转移清洁标签中毒攻击。在机器学习国际会议上,第7614-7623页。PMLR,2019年。陈竺、W Ronny Huang、Li Hengduo、Gavin Taylor、Christoph Studer和Tom Goldstein。对深层神经网络的可转移清洁标签中毒攻击。在国际机器学习会议上,第7614-7623页。PMLR,2019.“}”,“事件”:{“name”:“MM'22:第30届ACM国际多媒体会议”,“赞助商”:[“SIGMM ACM多媒体特别兴趣小组”],“地点”:“葡萄牙里斯本”,“缩写词”:“MM'22”},“container-title”:[《第30届AMM国际多媒体大会论文集》],“原文标题”:[],“链接”:[{“URL”:“https:\/\/dl.acm.org\/doi\/pdf\/10.1145\/3503161.3548065“,”content-type“:”unspecified“,”content-version“:”vor“,”intended-application“:”similarity-checking“}],”deposed“:{”date-parts“:[[2023,1,12],”date-time“:“2023-01-12T02:18:34Z”,”timestamp“:1673489914000},”score“:1,”resource“:”{“primary”:{“URL”:“https:\/\/dl.acm.org\/doi\/10.1145\/3503161.3548065“}},”副标题“:[],”短标题“:[],”已发布“:{”日期部分“:[2022,10,10]]},“引用计数”:40,“alternative-id”:[“10.1145\/3501.3548065”,“10.1145\/3503161”],“URL”:“http://\/dx.doi.org\/10.1145 \/350311.35480655”,“关系”:{},“主题”:[],“已发布”:{“日期部分”:[[2022,10,10]]},”断言“:[{”value“:”2022-10-10“,”order“:2,”name“:”published“,”label“:”published“,”group“:{”name“:”publication_history“,”标签“:”publication history“}}]}}