用于多变量时间序列预测的联合时频域变换器

@第{陈2023AJT条,title={多变量时间序列预测的联合时频域变换器},作者={陈玉书、刘胜卓、杨金哲、郝静、赵文来、杨光武},journal={神经网络:国际神经网络学会的官方期刊},年份={2023},体积={176},第页={106334},网址={https://api.semanticscholar.org/CorpusID:258865840}}
JTFT结合时域和频域表示进行预测,并提出低阶注意层以有效捕获交叉维相关性,从而防止时间和信道建模的纠缠导致性能下降。

本文图表

基于时频域信息的深度学习模型预测颗粒物2.5浓度

本文提出了时频域、双向长短时记忆(BiLSTM)和注意力(TF-BiL STM-attention)模型,这是一个单变量模型,其预测性能优于一些基本模型(如Bi-lSTM)和一些混合模型(如CNN-Bi-LSTTM)对所有站点的预测。

深度时间序列预测模型综述

本文首先介绍了TSF领域的最新发展趋势,并从深度神经网络模型的角度提出了一种新的分类法,全面涵盖了过去五年发表的文章。

预测的部分多元模型

提出了PMformer,一种基于Transformer的部分多元模型,其中神经网络仅捕获部分关系,即所有特征子集内的依赖关系,其性能优于各种单变量和完全多元模型。

FEDformer:用于长期序列预测的频率增强分解变压器

FEDformer是一种比标准Transformer效率更高的频率增强型变压器,其序列长度具有线性复杂性,与最先进的方法相比,FED Former可以将多变量和单变量时间序列的预测误差分别减少14.8%和22.6%。

FreDo:基于频域的长期时间序列预测

本文从数学上表明,由于误差累积,复杂的模型在长期预测方面可能无法优于基线模型,并表明基于周期性的非参数基线模型实际上可以在各种数据集上实现与最先进的基于Transformer的模型相当的性能。

变压器对时间序列预测有效吗?

在九个真实数据集上的实验结果表明,LTSF-Linear在所有情况下都出人意料地优于现有的基于Transformer的复杂L-TSF模型,而且通常都有很大的差距。

一个时间序列值64个单词:用变形金刚进行长期预测

与基于SOTA变换器的模型相比,信道相关的补丁时间序列变换器(PatchTST)可以显著提高长期预测的准确性,并应用于自我监督的预训练任务,获得优异的微调性能。

GCformer:一种准确且可扩展的长期多变量时间序列预测的有效解决方案

提出了一种GCformer,它将用于处理长输入序列的结构化全局卷积分支与用于捕获短的最近信号的基于局部Transformer的分支结合在一起,并且可以作为插件来增强其他模型的性能,平均提高31.93%。

信息员:超越长序列时间序列预测的高效变压器

一种高效的基于transformer的LSTF模型,名为Informer,具有三个显著的特征:ProbeSparse自注意机制,它在时间复杂性和内存使用方面实现了O(L log L),并且在序列的依赖性对齐方面具有可比的性能。

MTS-Mixers:基于因子化时间和渠道混合的多元时间序列预测

研究发现,捕获时间相关性并不需要注意,时间和信道交互捕获中的纠缠和冗余会影响预测性能,并且对输入和预测序列之间的映射进行建模很重要。

DSformer:一种用于多变量时间序列长期预测的双采样变压器

提出了一种双采样变换器(DSformer),它由双采样(DS)块和时间变量注意(TVA)块组成,使用多个TVA块分别挖掘和集成从DS块获得的不同特征。

交叉变换器:利用多维相关性进行多元时间序列预测的变换器

在Crossformer中,一种基于Transformer的模型,利用跨维相关性进行MTS预测,输入的MTS通过维分段向嵌入嵌入到二维向量阵列中,以保留时间和维度信息,并提出了两阶段注意层来捕获跨时间和跨维相关性。

尺度变换器:用于时间序列预测的迭代多尺度细化变换器

一个通用的多尺度框架,可应用于最先进的基于变压器的时间序列预测模型(FEDformer、Autoformer等),并证明其在整个体系结构和方法中的每个贡献的有效性。
...