的一部分神经信息处理系统的进展32(NeurIPS 2019)
Gagandeep Singh、Rupanshu Ganvir、Markus Püschel、Martin Vechev
我们提出了一种新的参数化框架,称为k-ReLU,用于精确计算以及用于证明神经网络的可伸缩凸松弛。关键思想是在一个层中联合而不是单独地近似多个ReLU的输出。这种联合松弛捕获了不同ReLU的输入之间的依赖性从而克服单个神经元施加的凸面障碍三角形松弛及其近似。框架在它联合考虑并可与现有验证器组合的k个ReLU的数量以提高其精度。我们的实验结果表明,k-ReLU en-与现有的最先进的验证器相比,ables的认证更加精确同时保持可扩展性。
在电子程序中更改姓名的请求将被接受,不会提出任何问题。然而,名称更改可能会导致书目跟踪问题。作者被要求仔细考虑这一点,并在要求在电子诉讼中更改姓名之前与合著者进行讨论。
使用“报告问题”链接请求更改名称。