目录
- 【2021 AAAI】Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting
- 【2021 NeurIPS】Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting
- 【2022 ICML】FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting
- 【2022 NeurIPS】Non-stationary Transformers:Exploring the Stationarity in Time Series Forecasting
- 【2023 ICLR】TIMESNET: TEMPORAL 2D-VARIATION MODELING FOR GENERAL TIME SERIES ANALYSIS
- 【2023 ICLR】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
- 【2023 AAAI】Are Transformers Effective for Time Series Forecasting?
- 【2023 ICLR】SCALEFORMER: ITERATIVE MULTI-SCALE REFINING TRANSFORMERS FOR TIME SERIES FORECASTING
- 【2023 NeurIPS】Koopa: Learning Non-stationary Time Series Dynamics with Koopman Predictors
- 【2023 arXiv】TimeGPT-1: TimeGPT-1
【2021 AAAI】Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting
关键词:蒸馏、概率稀疏自注意力机制、生成式解码器
特点:降本增效
自测:使用自建的时序数据集进行测试,过去96小时预测未来24小时
mse:9.121872901916504, mae:2.2853033542633057
导航至学习记录:学习记录链接
【2021 NeurIPS】Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting
关键词:时序分解模块、自相关机制
特点:注重时序数据自身的周期特征
自测:使用自建的时序数据集进行测试,过去96小时预测未来24小时
mse:12.01842975616455, mae:2.5901458263397217
导航至学习记录:学习记录链接
【2022 ICML】FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting
关键词:频域、傅里叶变换、小波变换
特点:在Autoformer主体框架的基础上,使用傅里叶变换、小波变换将时域转换为频域后进行特征提取
自测:使用自建的时序数据集进行测试,过去96小时预测未来24小时
mse:11.52622127532959, mae:2.53287410736084
导航至学习记录:学习记录链接
【2022 NeurIPS】Non-stationary Transformers:Exploring the Stationarity in Time Series Forecasting
关键词:平稳化
特点:针对过平稳化,提出一种创新的解决方法
自测:使用自建的时序数据集进行测试,过去96小时预测未来24小时
mse:5.9416890144348145, mae:1.7598674297332764
导航至学习记录:学习记录链接
【2023 ICLR】TIMESNET: TEMPORAL 2D-VARIATION MODELING FOR GENERAL TIME SERIES ANALYSIS
关键词:升维
特点:将一维时序数据转化为二维数据,借助CV领域成熟模型进行特征提取
自测:使用自建的时序数据集进行测试,过去96小时预测未来24小时
mse:6.045107364654541, mae:1.743194341659546
导航至学习记录:学习记录链接
【2023 ICLR】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
关键词:分块、通道独立
特点:将ViT思路引入时序预测
自测:使用自建的时序数据集进行测试,过去96小时预测未来24小时
mse:5.901376724243164, mae:1.7470899820327759
导航至学习记录:学习记录链接
【2023 AAAI】Are Transformers Effective for Time Series Forecasting?
关键词:Transformers、Linear、Effective?
特点:针对时序预测中Transformer系列的有效性提出质疑
自测:使用自建的时序数据集进行测试,过去96小时预测未来24小时
mse:6.253798007965088, mae:1.8150177001953125
导航至学习记录:学习记录链接
【2023 ICLR】SCALEFORMER: ITERATIVE MULTI-SCALE REFINING TRANSFORMERS FOR TIME SERIES FORECASTING
关键词:多尺度
特点:提出一种通用框架应用于前人模型中
导航至学习记录:学习记录链接
【2023 NeurIPS】Koopa: Learning Non-stationary Time Series Dynamics with Koopman Predictors
关键词:Koopman、时频转换、常变分解
特点:借助傅里叶频域分解,根据Koopman理论,完成算子探究,从而进行预测工作。
导航至学习记录:学习记录链接
【2023 arXiv】TimeGPT-1: TimeGPT-1
关键词:时间序列预测大模型
特点:通用、无样本预测
导航至学习记录:学习记录链接