的一部分神经信息处理系统的进展33(NeurIPS 2020)
本杰明·桑切斯·伦格林(Benjamin Sanchez-Lengeling)、詹妮弗·韦(Jennifer Wei)、布莱恩·李(Brian Lee)、艾米丽·赖夫(Emily Reif)、彼得·王(Peter Wang
机器学习模型的可解释性对于科学理解、人工智能安全以及调试至关重要。归因是一种解释性方法,它突出了对神经网络预测有影响的输入维度。对于图像和文本模型来说,这些方法的评估大多是定性的,因为获取地面真实属性需要昂贵且不可靠的人类判断。图神经网络(GNNs)是一种越来越重要的模型类,可以对任意大小的图进行预测,其归因研究很少。在这项工作中,我们采用了GNN的通用属性方法,并使用客观且具有挑战性的可计算地面实况对其进行定量评估。我们为要使用的属性方法提出具体建议,并为基准测试套件提供数据和代码。对图形中的属性方法进行严格的开源基准测试,可以开发新的方法,并在实际的ML任务中更广泛地使用属性。
在电子程序中更改姓名的请求将被接受,不会提出任何问题。然而,名称更改可能会导致书目跟踪问题。作者被要求仔细考虑这一点,并在要求在电子诉讼中更改姓名之前与合著者进行讨论。
使用“报告问题”链接请求更改名称。