计算机科学››2021,第48卷››问题(1): 258-267.数字对象标识:10.11896/jsjkx.200500078
•信息安全• 以前的文章 下一篇文章
童欣、王斌军、王润正、潘晓琴
收到:
修订过的:
在线:
出版:
关于作者:
支持单位:
摘要:深度学习模型已经被证明是脆弱的,并且容易受到对抗性示例的攻击,但目前对对抗性样本的研究主要集中在计算机视觉领域,而忽视了自然语言处理模型的安全性。针对自然语言处理领域中对抗性样本面临的相同风险,本文澄清了对抗性样本的相关概念,为进一步研究奠定了基础。首先,分析了漏洞产生的原因,包括基于深度学习的自然语言处理模型的复杂结构、难以检测的训练过程和朴素的基本原则,进一步阐述了文本对抗性示例的特征、分类和评估指标,并介绍了与自然语言处理领域研究相关的对抗性示例中涉及的典型任务和经典数据集。其次,根据不同的扰动层次,梳理出主流的字词级、句子级和多层次的各种文本对抗例生成技术。此外,总结了与数据、模型和推理相关的防御方法,并比较了它们的优缺点。最后,对当前NLP对抗样本领域攻防双方的痛点进行了进一步的讨论和展望。
关键词: 对立的例子, 人工智能安全, 深度学习, 自然语言处理, 稳健性
CLC编号:
童欣、王斌军、王润正、潘晓琴。面向自然语言处理的深度学习对手样本调查[J]。计算机科学,2021,48(1):258-267。
0 / / 推荐
添加到引文管理器 尾注|样板客户经理|项目|BibTeX公司|参考Works
网址: https://www.jsjkx.com/EN/10.11896/jsjkx.200500078
https://www.jsjkx.com/EN/Y2021/V48/I1/258
引用