压缩还是不压缩:理解对手攻击与神经网络压缩之间的相互作用

的一部分机器学习与系统1会议录(MLSys 2019)

Biptex公司 元数据 纸类 补充的

作者

伊利亚·舒梅洛夫(Ilia Shumailov)、赵毅仁(Yiren Zhao)、罗伯特·马林斯(Robert Mullins)、罗斯·安德森(Ross Anderson)

摘要

随着深度神经网络(DNN)的广泛应用,修剪和量化模型在边缘设备上变得越来越普遍;这样的压缩DNN降低了计算要求。同时,最近的多项研究表明,构建对抗性样本的方法会导致DNN错误分类。因此,我们研究了对抗性样本在未压缩和压缩DNN之间转移的程度。我们发现这样的样本对于修剪模型和量化模型都是可转移的。对于修剪,高度稀疏的对抗性样本的可转移性略低。对于量化,我们发现对手样本的可传递性对整数精度非常敏感。