跳到主要内容
10.1007/978-3-031-48796-5_2指导程序文章/章节视图摘要出版物页面会议记录acm-pubtype公司
第条

阐述:生成多元化驱动的对手示例的黑盒方法

出版:2023年12月8日 出版历史

摘要

深度神经网络(DNN)越来越多地用于安全关键型系统的决策(例如,医疗应用、自动车辆等)。早期对抗性示例的研究表明,它们可能会阻碍DNN正确处理输入的能力。这些技术主要侧重于识别故障的个别原因,强调最小扰动可能导致DNN失败。最近的研究表明多种多样的对抗性示例,即那些导致不同错误模型行为的示例,可以更好地评估DNN的鲁棒性。然而,这些技术使用白盒方法彻底搜索不同的DNN不当行为。本文提出了一种黑盒、模型和数据认知方法来生成不同的对抗性示例集,其中每个示例集对应一种类型的模型错误行为(例如,将图像错误分类到特定标签),因此称为故障类别此外,每个故障类别都包含一组不同的扰动,所有这些扰动都会产生相同类型的模型错误行为。因此,这项工作提供了基于广度和深度的信息,以解决对抗性示例导致的多类故障的稳健性问题。我们通过将其应用于使用不同图像分类模型的流行图像分类数据集来说明我们的方法。

工具书类

[1]
Aghababaeyan,Z.,Abdellatif,M.,Dadkhah,M..,Briand,L.:DeepGD:深度神经网络的多目标黑盒测试选择方法。arXiv(2023年)
[2]
Arrieta B等人。可解释人工智能(XAI):概念、分类法、面向负责任人工智能的机遇和挑战信息融合2020 58 82-115
[3]
Cai Z、Fan Q、Feris RS和Vasconcelos N Leibe B、Matas J、Sebe N和Welling M用于快速目标检测的统一多尺度深度卷积神经网络计算机视觉-ECCV 20162016查姆斯普林格354-370
[4]
Carlini,N.,Wagner,D.:评估神经网络的鲁棒性。2017年IEEE安全与隐私研讨会(SP),第39–57页。IEEE(2017)
[5]
Chan K和Cheng BHC Papadakis M和Vergilio SR EvoAttack:针对对象检测模型的基于进化搜索的对抗性攻击基于搜索的软件工程2022查姆斯普林格83-97
[6]
陈杰等.POBA-GA:基于遗传算法的扰动优化黑盒对抗攻击计算。安全。2019 85 89-106
[7]
乔·雷宾舍克M、刘世伟和默尼克M进化算法的探索和利用:一项调查ACM计算。Surv公司。(CSUR)2013 45 3 1-33
[8]
Gheibi O、Weyns D和Quin F将机器学习应用于自适应系统:系统文献综述ACM TAAS公司2021 15 3 1-37
[9]
Goodfellow,I.,Shlens,J.,Szegedy,C.:解释和利用对抗性示例。参加:国际学习代表大会(2015年)
[10]
He,K.,et al.:图像识别的深度剩余学习。摘自:IEEE计算机视觉和模式识别会议记录,第770-778页(2016)
[11]
Krizhevsky,A.等人:从微小图像中学习多层特征(2009)
[12]
Kurakin A等人。Escalera S、Weimer M等人。对抗性攻击和防御比赛NIPS 17年竞赛:构建智能系统2018查姆斯普林格195-231
[13]
Langford MA和Cheng BHC Enki:一种多样性驱动的方法,用于测试和训练强大的学习型系统ACM TAAS公司2021 15 2 1-32
[14]
Langford,M.A.,Cheng,B.H.C.:“知道你知道什么”:预测学习型系统在面对不确定性时的行为。收录于:2021年自适应和自我管理系统软件工程国际研讨会,第78-89页。IEEE(2021)
[15]
雷曼J和斯坦利KO放弃目标:仅通过寻找新奇事物来进化进化。计算。2011 19 2 189-223
[16]
雷曼,J.,斯坦利,K.O.:新奇搜索和目标问题。收录于:Riolo,R.、Vladislavleva,E.、Moore,J.(编辑)《遗传编程理论与实践IX.遗传与进化计算》,第37-56页。施普林格,纽约(2011)。
[17]
Alzantot等人:GenAttack:具有无梯度优化的实用黑盒攻击。摘自:《遗传与进化计算会议论文集》,第1111-1119页(2019年)
[18]
Paszke,A.等人:PyTorch:一个命令式、高性能的深度学习库。在:Wallach,H.等人(编辑)《神经信息处理系统进展》第32卷,第8024–8035页。Curran Associates,Inc.(2019年)
[19]
Szegedy等人:神经网络的有趣特性。参加:国际学习代表大会(2014年)
[20]
Papernot,N.,McDaniel,P.,Goodfellow,I.:机器学习中的可转移性:使用对抗样本从现象到黑盒攻击。arXiv(2016)
[21]
Rozsa,A.等人:对抗性多样性和艰难的积极一代。摘自:IEEE计算机视觉和模式识别会议记录(2016年)
[22]
Sandler,M.等人:Mobilenetv 2:倒置残差和线性瓶颈。摘自:IEEE计算机视觉和模式识别会议记录,第4510–4520页(2018年)
[23]
Stallkamp,J.等人:GTSRB:多类别分类比赛。摘自:2011年神经网络国际联合会议,第1453-1460页。IEEE(2011)
[24]
Sun L等人。对实际对抗性示例攻击的调查网络安全2018 1 1-9
[25]
Szegedy,C.,Toshev,A.,Erhan,D.:用于目标检测的深层神经网络。In:神经信息处理系统进展,第26卷(2013)
[26]
VidnerováP和Neruda R分类器对进化生成的对抗示例的脆弱性神经网络。2020 127 168-181
[27]
Wallace E等人。如果可以的话,就耍我:人机对话式的问答对抗示例生成墨西哥玉米饼2019 7 387-401
[28]
Yu,F.等:解释和评估神经网络鲁棒性(2019年)。(IJCAI 2019)

索引术语

  1. 阐述:生成多元化驱动的对手示例的黑盒方法
            索引项已通过自动分类分配给内容。

            建议

            评论

            信息和贡献者

            问询处

            发布于

            封面图片指南会议记录
            基于搜索的软件工程:第15届国际研讨会,SSBSE 2023,美国加利福尼亚州旧金山,2023年12月8日,会议记录
            2023年12月
            179页
            国际标准图书编号:978-3-031-48795-8
            内政部:10.1007/978-3-031-48796-5

            出版商

            Springer-Verlag公司

            柏林,海德堡

            出版历史

            出版:2023年12月8日

            作者标记

            1. 对手示例
            2. 新颖性检索
            3. 机器学习

            限定符

            • 第条

            贡献者

            其他指标

            文献计量学和引文

            文献计量学

            文章指标

            • 0
              引文总数
            • 0
              总下载次数
            • 下载量(最近12个月)0
            • 下载次数(最近6周)0
            反映截至2024年9月22日的下载量

            其他指标

            引文

            视图选项

            查看选项

            获取访问权限

            登录选项

            完全访问权限

            媒体

            数字

            其他

            桌子

            分享

            分享

            共享此出版物链接

            在社交媒体上分享