项目资源
-
针对深度学习视觉分类的稳健物理世界攻击 在2018年计算机视觉和模式识别会议(CVPR 2018)上发表的这篇论文中,研究人员表明,对现实世界对象的恶意更改可能会导致对象分类器误读图像。 研究论文 -
目标探测器的物理对抗示例 在第12届USENIX攻势技术研讨会(WOOT’18)上,本文探讨了对象检测模型的物理对抗攻击,这是一类广泛用于检测和标记场景中多个对象的深度学习算法。 研究论文 -
对抗性机器学习:对机器学习模块的强大物理世界攻击 虽然深度神经网络(DNN)在各种应用中表现良好,但它们容易受到输入数据中添加的小扰动所导致的对抗性示例的影响。 然而,最近的研究表明,由于物理条件的变化,此类对抗性示例在物理世界中的有效性有限——它们要么完全无法导致错误分类,要么仅在相对复杂的图像受到干扰并打印在纸上的有限情况下有效。 新闻
过去的事件
-
2020年10月伦敦科学博物馆展示的对抗性机器学习研究 请注意:博物馆于8月19日重新开放。 游客必须提前预订免费门票。 请访问 https://www.sciencemuseum.org.uk网站/ 了解更多详细信息。 2019年6月至2020年10月,探索对抗性机器学习的研究在伦敦科学博物馆展出,作为“无人驾驶:谁在控制?”的一部分 这个免费展览包括一组研究人员开发的一个修改过的停车标志,用来愚弄无人驾驶汽车,使其误认,并询问“自动驾驶汽车能像你一样看到世界吗?” 事件