超越单神经元凸屏障的神经网络认证

的一部分神经信息处理系统的进展32(NeurIPS 2019)

作者反馈 Biptex公司 MetaReview公司 元数据 纸类 评论 补充的

作者

Gagandeep Singh、Rupanshu Ganvir、Markus Püschel、Martin Vechev

摘要

我们提出了一种新的参数化框架,称为k-ReLU,用于精确计算以及用于证明神经网络的可伸缩凸松弛。关键思想是在一个层中联合而不是单独地近似多个ReLU的输出。这种联合松弛捕获了不同ReLU的输入之间的依赖性从而克服单个神经元施加的凸面障碍三角形松弛及其近似。框架在它联合考虑并可与现有验证器组合的k个ReLU的数量以提高其精度。我们的实验结果表明,k-ReLU en-与现有的最先进的验证器相比,ables的认证更加精确同时保持可扩展性。