作者:Anthony D.Joseph、Pavel Laskov、Fabio Roli、J.Doug Tygar和Blaine Nelson
摘要
对抗环境中的学习研究是机器学习和计算机安全之间的一门新兴学科。基于学习的方法用于安全和系统设计应用的兴趣来自于计算机系统安全性和可靠性背后现象的高度复杂性。由于仅使用静态设计的机制越来越难以达到所需的特性,学习方法被越来越多地用于更好地理解从这些复杂系统收集的各种数据。然而,对手可以回避学习方法,因为他们会根据学习方法改变自己的行为。迄今为止,对具有可证明健壮性保证的抗攻击能力的学习技术的研究有限召开了Perspectives研讨会“计算机安全的机器学习方法”,将来自计算机安全和机器学习社区的感兴趣的研究人员聚集在一起,讨论安全学习和基于学习的安全应用的技术、挑战和未来研究方向。由于22次受邀演讲、工作组会议和非正式讨论,以下是几个优先研究领域已确定。该领域发现的公开问题包括机器学习在安全领域的传统应用,如恶意软件的攻击检测和分析,以及与安全学习相关的方法学问题,特别是开发具有可证明安全保证的新形式方法。最后,还有其他一些潜在的应用超出了传统的计算机安全范围数据驱动方法也可能出现安全问题。此类应用程序的示例包括社交媒体垃圾邮件、剽窃检测、作者身份识别、版权执法、计算机视觉(尤其是在生物特征方面)和情感分析。
引用为
安东尼·约瑟夫(Anthony D.Joseph)、帕维尔·拉斯科夫(Pavel Laskov)、法比奥·罗利(Fabio Roli)、道格·泰加(J.Doug Tygar)和布莱恩·纳尔逊(Blaine Nelson)。计算机安全的机器学习方法(Dagstuhl Perspectives Workshop 12371)。在《达格斯图尔宣言》第3卷第1期第1-30页,达格斯图宫-莱布尼兹·泽特鲁姆·福尔·Informatik(2013)
将BibTex复制到剪贴板
@文章{joseph_et_al:DagMan.3.1.1,author={约瑟夫、安东尼·D·和拉斯科夫、帕维尔和罗利、法比奥和泰加、J.道格和纳尔逊、布莱恩},title={{计算机安全的机器学习方法(Dagstuhl Perspectives Workshop 12371)}},页数={1--30},journal={达格斯图尔宣言},ISSN={2193-2433},年份={2013},体积={3},数字={1},editor={Joseph、Anthony D.和Laskov、Pavel和Roli、Fabio和Tygar、J.Doug和Nelson、Blaine},publisher={Schloss Dagstuhl--Leibniz Zentrum f{\“u}r Informatik},地址={Dagstuhl,德国},URL={https://drops.dagstuhl.de/entities/document/10.4230/DagMan.3.1.1},URN={URN:nbn:de:0030-drops-43569},doi={10.4230/DagMan.3.1.1},annote={关键词:对抗学习、计算机安全、稳健统计学习、专家在线学习、博弈论、学习理论}}