计算机工程与应用››2024,第60卷››发行(10): 180-187.内政部:10.3778/j.issn.1002-8331.2302-0097

•模式识别和人工智能• 以前的文章   下一篇文章

二阶图卷积自编码器的图表示学习

袁丽宁、姜平、莫嘉英、刘钊  

  1. 1.广西警察学院信息技术学院,南宁530028
    2.中国人民公安大学研究生院,北京100038
  • 在线:2024-05-15 出版:2024-05-15

基于二阶图卷积自编码器的图表示学习

袁立宁,蒋萍,莫嘉颖,刘钊  

  1. 1广西警察学院 信息技术学院,南宁 530028
    2中国人民公安大学 研究生院,北京 100038

摘要:图卷积自编码器是一种强大的图表示学习方法,在链路预测方面具有良好的性能。然而,现有的方法通常依赖于图卷积网络对邻接矩阵和属性矩阵进行编码,这种策略忽略了二阶信息等高阶特征。为了解决这个问题,本文提出了一种基于二阶图卷积自编码器的SeVGAE模型。首先,利用图卷积网络和二阶图卷积网生成变分自编码器的均值和方差。然后,学习嵌入来表示原始图的混合概率分布。最后,通过内积译码器恢复拓扑。SeVGAE在链路预测中的性能优于基线。与Citeser数据集上的原始VGAE相比,AUC和AP分别提高了3.26%和2.56%。结果表明,在低维嵌入中,二阶信息可以保留更丰富的图形信息。此外,所提出的方法在属性不足和拓扑不准确方面具有明显的优势。在边缘和属性都丢失高达40%的极端情况下,与VGAE相比,SeVGAE仍将AUC和AP分别提高4.79%和3.47%。

关键词: 图形表示学习, 二阶图卷积网络, 链路预测

摘要:图卷积自编码器是一类高效的图表示学习模型,在链路预测等任务中具有出色性能。然而现有模型大多依赖图卷积网络对邻接矩阵和属性矩阵进行编码,未充分利用二阶信息等高阶结构特征。针对上述问题,提出了基于二阶信息的图卷积自编码器模型SeVGAE公司首先使用图卷积和二阶图卷积生成变分自编码器的均值和方差,然后学习嵌入向量表示原始图的混合概率分布,最后使用内积解码器恢复拓扑结构。在链接预测任务中,SeGVAE公司表现优于基线模型,Citeser AUC和AP VGAE分别为3.26%和2.56%实验结果表明,二阶信息的引入能够在低维嵌入中保留更丰富的图信息,提升模型性能。模型在处理属性信息不足、拓扑信息不准确的图数据时具有较为明显的优势,在边缘和属性均缺失40%的极端情况下,SeVGAE AUC和AP VGAE分别为4.79%和3.47%

关键词: 图表示学习, 二阶图卷积网络, 链接预测