{“status”:“ok”,“message-type”:“work”,”message-version“:“1.0.0”,“消息”:{“indexed”:{“date-parts”:[[2024,6,11]],“date-time”:“2024-06-11T07:51:06Z”,“timestamp”:1718092266609},“publisher-location”:“California”,“reference-count”:0,“publish”:“International Joint Conferences on Artificial Intelligence Organization”,“content-domain”:[],“交叉标记限制”:false},“短容器标题”:[],“已出版印刷品”:{“日期部分”:[[2019,8]]},“摘要”:“对手示例故意导致模型分类错误,这引起了人们对机器学习技术安全方面的关注。许多现有的对抗措施被适应性对手和转移的示例所破坏。我们提出了一种模型识别方法,通过分析随机扰动下模型对输入的响应来解决该问题,并在理论框架内研究了检测正常边界对抗性失真的鲁棒性。我们对MNIST、CIFAR-10和ImageNet数据集进行了广泛的评估。结果表明,我们的检测方法对包括黑盒攻击和四种对抗性自适应的强大CW攻击在内的各种攻击都是有效且有弹性的<\/jats:p>“,”DOI“:”10.24963\/ijcai.2019\/651“,”type“:”proceedings-article“,”created“:{”date-parts“:[[2019,7,28]],”date-time“:”2019-07-28T03:46:05Z“,”timestamp“:1564285565000},”source“:“Crossref”,“is-referenced-by-count”:10,”title“:[”Model-Agnostic Adversarial Detection by Random Perturbations“],”prefix“:”10.24963“,“作者”:[{“给定”:“Bo”,“家庭”:“黄,“sequence”:“first”,“affiliation”:[{“name”:“中国东莞东莞理工大学”},{“name”:“深圳大学,中国深圳”}]},}“given”:“Yi”,“family”:“Wang”,“segment”:“additional”,“fessiliation”(顺序):“addressive”,“隶属关系”:[}“name:“Donghuang University of Technology,China Donghong,China”}]{“giving”:“Wei”,”“families”:“王”,“序列”:“附加”隶属关系“:[{”name“:”The University of New South Wales,Sydney,Australia“}]}],”member“:”10584“,”event“:”name“:”Twenty-Eighth International Joint Conference on Artificial Intelligence{IJCAI-19}“,”theme“:”Artificular Intelligation“,”location“:”China澳门“,”缩写“:”IJCAI-2019“,”number“:“28”“,”赞助商“:[”国际人工智能联合会议(IJCAI)“],”开始“:{“日期部分”:[[2019,8,10]]},”结束“:{“日期部分“:[[2019,8,16]]}},“容器-标签”:[“第二十八届国际人工智能联合会议记录”],”原文标题“:[],”存放“:{”日期部分“:[[2019,18]],”日期时间“:”2019-07-28T03:50:49Z“,”timestamp“:1564285849000},”score“:1,”resource“:{”primary”:{“URL”:“https:\/\/www.ijcai.org\/procedures\/2019\/651”}},“subtitle”:[],“short title”:[],“issued”:{“date-parts”:[[2019,8]]},《references-count》:0,“URL”:“http://\/dx.doi.org\/10.24963\/ijcai 2019\/651“,”关系“:{},”主题“:[],”发布“:{”日期部分“:[[2019,8]]}}}