可解释的深度生成推荐模型

刘华凤、靖丽萍、文景轩、徐鹏宇、王佳琪、余健、吴敏杰。

年份:2021年,数量:22,版本:202,页码:1-54


摘要

推荐系统中的用户偏好建模旨在通过基于先验用户行为数据发现用户的内在偏好来改善客户体验。这是一个具有挑战性的问题,因为用户偏好通常具有复杂的结构,例如用户之间的偏好相似性和用户内部的偏好多样性。其中,用户间的相似性表示不同用户可能具有相似的偏好,而用户内的差异性表示一个用户可能具有多个偏好。在文献中,深度生成模型由于其在统计分布上的灵活性和强大的非线性表示学习能力,已成功应用于推荐系统。然而,当处理复杂的用户偏好时,他们会受到简单的生成过程的影响。同时,深层生成模型学习到的潜在表征通常是相互纠缠的,可能包括支配用户之间复杂关联的观察级表征,也可能包括表征用户偏好的潜在表征,这使得深层模型难以解释,也不利于推荐。因此,本文提出了一种可解释的深度生成推荐模型(InDGRM)来表征用户间偏好相似性和用户内偏好多样性,同时将学习到的表示从观察级和潜在级分离出来。在InDGRM中,通过在丰富的多模态空间中建模用户集群结构(即用户间偏好相似性)来实现对用户的观察级别解纠缠,从而将具有相似偏好的用户分配到同一集群中。通过在原型学习策略中对用户内部偏好多样性建模,实现了对项目的观察级解纠缠,其中项目组捕获了不同的用户意图(一个组表示一个意图)。为了促进解开潜在表征,InDGRM采用了结构和稀疏性诱导惩罚,并将它们集成到生成过程中,生成过程能够将每个潜在因素集中在有限的项目子集(例如,一个项目组)上,并有利于潜在水平的解开。同时,借助于局部变分优化技术,通过最小化其惩罚上界,可以有效地推断出它。从理论上分析了InDGRM的泛化误差界,以保证其性能。在四个广泛使用的基准数据集上的一系列实验结果证明了InDGRM在推荐性能和可解释性方面的优势。

PDF格式 BibTeX公司