计算机工程与应用››2023,第59卷››发行(17): 152-158.内政部:10.3778/j.issn.1002-8331.2205-0432

模式识别与人工智能 • 上一篇   下一篇

面向图嵌入的改进图注意机制模型

李智杰,韩津津,李昌华,张颉  

  1. 西安建筑科技大学 信息与控制工程学院,西安 710055
  • 出版日期:2023-09-01 发布日期:2023-09-01

改进的图嵌入的图注意机制模型

李志杰、韩金金、李昌华、张杰  

  1. 西安建筑科技大学信息与控制工程学院,西安710055
  • 在线:2023-09-01 出版:2023-09-01

摘要:针对图神经网络模型学习图嵌入节点表示过程中易丢失大量特征信息及其图拓扑保留不完整的问题,提出了一种改进的图注意力(注意图形)机制模型。该模型分为节点级双向注意力机制和图级自注意图池化两部分。在学习图节点新的特征向量表示过程中,采取计算双向图注意力权重的方式,为邻域节点的保留提供可靠选择的同时增强节点间的相似属性;在图的整体拓扑上结合自注意图池,使用节点特征向量作为输入,通过注意卷积层提供的自注意权重在池化层生成图嵌入表示;在科拉、Citeser、Pubmed数据集上进行了测试,实验结果表明:相比于基准图注意力机制模型,改进模型能够充分考虑图的局部和整体结构特征,有效增强模型聚合邻域信息的能力,减少了图嵌入过程中原始特征的丢失,明显提升了模型在下游任务的表现性能。

关键词: 图嵌入, 双向图注意力机制, 自注意图池, 特征表示, 图拓扑

摘要:针对图神经网络模型中学习图中嵌入节点表示过程中容易丢失大量特征信息和图拓扑不完全保存的问题,提出了一种改进的图注意机制模型。该模型分为节点级双向注意机制和图级自注意图池。在表示学习图节点的新特征向量时,采用双向图注意权重的计算,为保留相邻节点提供可靠的选择,同时增强节点间的相似性。将自关注图池与图的整体拓扑相结合,使用节点特征向量作为输入,通过注意卷积层提供的自关注权重在池层生成图嵌入表示。它在Cora、Citeser和Pubmed数据集上进行了测试。根据实验结果,与基线图注意机制模型相比,改进模型充分考虑了图的局部和全局结构特征。它有效地增强了模型聚集邻域信息的能力,减少了图嵌入中原始特征的丢失,并显著提高了模型在下游任务中的性能。

关键词: 图形嵌入, 双向图形注意机制, 自我注意图池, 特征表示, 图形拓扑