Bootstrap

【ICML 2022】时序精选论文06|FEDformer: 基于频域应用注意力机制的长期序列预测模型(长时预测效果超SOTA | 代码解读附源码)

ICML 时间序列预测

FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

FEDformer要解决的问题

待预测的序列长度远远大于输入长度,即基于有限的信息预测更长远的未来。上述需求使得此预测问题极具挑战性,对于模型的预测能力及计算效率有着很强的要求。另外,然而在时间序列预测问题中,序列的分布可能随时间轴的推进不断变化,这就需要模型具备更强的外推能力。

FEDformer解决的方式

  1. 通过周期趋势项分解(seasonal-trend decomposition)降低输入输出的分布差异;
  2. 提出了一种在频域应用注意力机制的模型结构,以增加对噪声的鲁棒性。

FEDformer框架图

总体框架图

;