摘要
补充材料
岑玉国、侯振宇、王燕、陈启斌、罗益珍、姚兴成、曾敖涵、郭世光、张鹏、戴国浩等,2021年。 CogDL:用于深入学习图形的广泛工具包。 arXiv预印本arXiv:2103.00959,第7卷,第8卷(2021)。 谷歌学者 马蒂亚斯·费伊(Matthias Fey)和简·埃里克·伦森(Jan Eric Lenssen)。 2019.使用PyTorch Geometric快速学习图形表示。 arXiv预印arXiv:1903.02428(2019)。 谷歌学者 威尔·汉密尔顿(Will Hamilton)、应志涛(Zhitao Ying)和朱尔·莱斯科维奇(Jure Leskovec)。 2017年。大型图形的归纳表示学习。 神经信息处理系统进展,第30卷(2017年)。 谷歌学者 胡玉伟、叶子浩、王敏杰、于佳丽、大正、穆丽、张正、张志如和王毅达。 2020年。特征图:图形神经网络系统的灵活高效后端。 SC20:高性能计算、网络、存储和分析国际会议。 IEEE,1-13。 谷歌学者 交叉引用 托马斯·基普夫(Thomas N Kipf)和马克斯·威林(Max Welling)。 2016.图卷积网络半监督分类。 arXiv预印arXiv:1609.02907(2016)。 谷歌学者 达米莎·莱纳多拉(Damitha Lenadora)、维马什·萨提亚(Vimarsh Sathia)、杰拉西莫斯·格罗吉安尼斯(Gerasimos Gerogannis)、塞里夫·耶西尔(Serif Yesil)、约塞普·托雷拉斯(Josep Torrellas)和查里。 2023.GNN加速的输入敏感密集稀疏基本成分。 arXiv预印arXiv:2306.15155(2023)。 谷歌学者 邱胜浩、梁佑、王征。 2021.优化图神经网络的稀疏矩阵乘法。 在并行计算语言和编译器国际研讨会上。 施普林格,101-117。 谷歌学者 Khaledur Rahman先生、Majedul Haque Sujon和Ariful Azad。 FusedMM:用于图形嵌入和图形神经网络的统一sddmm-spmm内核。 2021年IEEE国际并行和分布式处理研讨会(IPDPS)。 IEEE,256-266。 谷歌学者 交叉引用 锈迹斑斑。 [编号,日期]。 GitHub-rusty1s/pytorch_sparse:优化Autograd稀疏矩阵操作的pytorch扩展库。 https://github.com/rusty1/pytorch_sparse 谷歌学者 王敏杰。 2019.深度图形库:实现高效、可扩展的图形深度学习。 在ICLR关于图和流形表示学习的研讨会上。 谷歌学者 Xu Keyyulu、Hu Weihua、Jure Leskovec和Stefanie Jegelka。 2018年。图形神经网络的功能有多强大? arXiv预印arXiv:1810.00826(2018)。 谷歌学者 叶子浩、赖瑞航、邵俊茹、陈天奇和吕塞泽。 2023.SparseTIR:深度学习中稀疏编译的可组合抽象。 第28届ACM编程语言和操作系统体系结构支持国际会议论文集,第3卷。 660--678. 谷歌学者 数字图书馆
建议
MaxK-GNN:用于加速图形神经网络训练的极快GPU内核设计 ASPLOS’24:第29届ACM编程语言和操作系统体系结构支持国际会议记录,第2卷 在加速深度神经网络训练方面,图形处理单元(GPU)已成为主流平台。 GPU在图形神经网络(GNN)上面临着巨大的挑战,例如工作负载不平衡和内存访问不规则。。。 基于NMF的深度神经网络方法加速反向传播算法 智能系统的知识管理和获取 摘要 反向传播(BP)是深度神经网络(DNN)训练中使用最广泛的算法,也是事实上的标准算法。 然而,BP算法通常需要大量的计算时间,这仍然是一个主要问题。。。 使用多个图形处理单元加速迭代线性解算器 在本文中,我们使用多个图形处理单元GPU开发、研究和实现了迭代线性解算器和预处理器。 加速稀疏矩阵-向量SpMV乘法、线性解算器和预条件器的技术。。。