作者 -
曾海金(Haijin Zeng) ( 根特大学 ) , 黄绍光 ( 根特大学 ) , 陈永勇 , 刘盛(Sheng Liu) , Hiep Luong先生 ( 根特大学 ) 和 威尔弗里德·菲利普斯 ( 根特大学 ) 组织 项目 摘要 在本文中,我们提出了一种新的双层低秩测度和两个基于该测度的模型来恢复低秩张量。 首先利用LR矩阵分解(MF)将底层张量的全局低秩编码为全模矩阵化,从而可以利用多向谱低秩。 由于模内相关中存在局部低秩特性,因此全模分解的因子矩阵可能是LR。 在分解的子空间中,为了描述因子/子空间的精细局部LR结构,设计了一种新的子空间低秩洞察:双核范数方案来探索所谓的第二层低秩。 通过同时表示底层张量所有模式的双层低秩,所提出的方法旨在为任意N向(N=3)张量建模多向相关性。 设计了一种块连续上界最小化(BSUM)算法来解决优化问题。 我们的算法可以建立子序列收敛性,并且我们的算法生成的迭代在一些温和的条件下收敛到坐标最小值。 在几种类型的公共数据集上的实验表明,我们的算法可以从比同类算法少得多的样本中恢复各种LR张量。 关键词 人工智能 , 计算机网络与通信 , 计算机科学应用 , 软件 , 双层低阶(LR) , 高阶张量 , 多模分解 , 总变化(TV) , 核标准 , 矩阵完成 , 算法 , 最小化 , 模型
下载
-
使用双层多模低秩先验和总变分的张量补全.pdf 全文 (接受的手稿) | -
开放存取 | PDF格式 | 5.38 MB
引用
MLA公司 -
Zeng,Haijin等人,“使用双层多模低秩先验和全变分的张量补全” IEEE神经网络和学习系统事务 2024年,第1-15页,doi:10.1109/tnnls.2023.3266841。 亚太地区 -
Zeng,H.、Huang,S.、Chen,Y.、Liu,S.,Luong,H.和Philips,W.(2024)。 利用双层多模低阶先验和总变分完成张量补全。 IEEE神经网络和学习系统事务 , 1–15. https://doi.org/10.109/tnnls.2023.3266841 芝加哥作者日期 -
曾海金、黄绍光、陈永勇、刘胜、梁希普和飞利浦。 2024.“使用双层多模低秩先验和总变差完成张量” IEEE神经网络和学习系统事务 , 1–15. https://doi.org/10.109/tnnls.2023.3266841。 芝加哥作者日期(所有作者) -
曾海金、黄绍光、陈永勇、刘胜、梁希普和飞利浦。 2024.“使用双层多模低秩先验和总变差完成张量” IEEE神经网络和学习系统事务 : 1–15. doi:10.1109/tnnls.2023.3266841。 温哥华 -
1 Zeng H,Huang S,Chen Y,Liu S,Luong H,Philips W.使用双层多模低阶先验和总变分完成张量。 IEEE神经网络和学习系统事务。 2024; 1–15. 电气与电子工程师协会 -
[1] H.Zeng、S.Huang、Y.Chen、S.Liu、H.Luong和W.Philips,“使用双层多模低秩先验和总变异的张量完成,” IEEE神经网络和学习系统事务 2024年,第1-15页。
@文章{01H0QG1N09BFA1QRW2JJ50WGQR, abstract={{在本文中,我们提出了一种新的双层低秩测度和两个基于它的模型来恢复低秩张量。底层张量的全局低秩首先由LR矩阵分解(MF)编码 对于全模式矩阵化,可以利用多向谱低秩。 假设所有模式分解的因子矩阵都是LR,因为在模式内相关性中存在局部低秩特性。 在分解的子空间中,为了描述因子/子空间的精细局部LR结构,设计了一种新的子空间低秩洞察:双核范数方案来探索所谓的第二层低秩。 通过同时表示底层张量所有模式的双层低秩,所提出的方法旨在为任意N向(N=3)张量建模多向相关性。 设计了一种块连续上界最小化(BSUM)算法来解决优化问题。 我们的算法可以建立子序列收敛性,并且我们的算法生成的迭代在一些温和的条件下收敛到坐标最小值。 在几种类型的公共数据集上的实验表明,我们的算法可以从显著少于对应数据集的样本中恢复各种LR张量, author={{曾、海金和黄、邵光和陈、永勇和刘、盛和良、希普和飞利浦、威尔弗里德}}, issn={{2162-237X}}, journal={{IEEE神经网络和学习系统事务}}, keywords={{人工智能,计算机网络和通信,计算机科学应用,软件,双层低秩(LR),高阶张量,多模分解,总变分(TV),核范数,矩阵完备,算法,最小化,模型}}, 语言={{eng}}, 页面={{1--15}}, title={{使用双层多模低阶先验和总变差}}的张量补全, url={http://doi.org/10.1109/tnnls.2023.3266841}}, 年份={2024}}, }
海拔高度 在Altmetric中查看 科学网 引用次数: