Bootstrap

论文阅读【时间序列】DSformer

论文阅读【时间序列】DSformer

arxive: DSformer: A Double Sampling Transformer for Multivariate Time Series Long-term Prediction
github: MTST

分类:多变量时间序列(Multivariate time series)

核心观点

多变量时间序列3个维度信息

Fig 1

  1. 变量间关联(Variable correlation):如Fig. 1(a)所示,不同变量具有相似的变化趋势 → \rightarrow Variable Attention
  2. 全局信息(Global information):如Fig. 1(b)所示,从全局来看,序列显示出一定的周期性 → \rightarrow Down Sampling
  3. 局部信息(Local information):如Fig. 1©所示,局部信息 → \rightarrow Piecewise Sampling

个人观点:全局信息更多指周期项,局部信息更多指趋势项

整体框架

Fig 2

符号含义
N变量数
H输入序列长度
L输出序列长度
C切分子序列数量

N 为变量数,H为输入序列长度,C是切分子序列的数量。
输入序列 X ∈ R N ∗ H X \in R^{N*H} XRNH,经过Down sampling得到 X d s ∈ R N ∗ C ∗ H C X_{ds} \in R ^{N * C * \frac{H}{C}} XdsRNCCH,经过Picewise Sampling得到 X p s ∈ R N ∗ C ∗ H C X_{ps} \in R ^{N * C * \frac{H}{C}} XpsRNCCH
TVA-block中进行Variable AttentionTemporal Attention。其中Temporal Attention Q ∈ R N ∗ C ∗ H C Q \in R ^{N * C * \frac{H}{C}} QRNCCH, K ∈ R N ∗ H C ∗ C K \in R ^{N * \frac{H}{C} *C} KRNCHCVariable Attention Q ∈ R H C ∗ C ∗ N Q \in R ^{\frac{H}{C} * C * N} QRCHCN, K ∈ R ∗ H C ∗ N ∗ C K \in R ^{ * \frac{H}{C} *N *C} KRCHNC

Temporal Attention是子序列之间,通过比较同一变量子序列的相似度计算注意力,Variable Attention是不同子序列之间,通过比较同一位置各个变量的相似度计算注意力。

随后,Temporal AttentionVariable Attention输出 X ′ ∈ R N ∗ C ∗ H C X' \in R ^{N * C * \frac{H}{C}} XRNCCH被FFN压缩成 X ′ ∈ R N ∗ H C X' \in R ^{N * \frac{H}{C}} XRNCH,然后相加。
最后,经过一个TVA-block整理来自不同视角的信息(Down samplingPicewise Sampling)和MLP得到输出。

采样过程

Fig 3

两种采样方式的区别在于如何将切分后的子序列重新排列。

  • Down Sampling: 每隔几个点取一个,用来捕获全局信息
    X d s j = [ x j , x j + H C , x j + 2 ∗ H C , . . . , x j + ( C − 1 ) ∗ H C ] X^j_{ds} = [x_j, x_{j+\frac{H}{C}}, x_{j+2*\frac{H}{C}},..., x_{j+(C-1)*\frac{H}{C}}] Xdsj=[xj,xj+CH,xj+2CH,...,xj+(C1)CH]
  • Piecewise Sampling:
    X p s j = [ x 1 + ( j − 1 ) ∗ C , x 2 + ( j − 1 ) ∗ C , x 3 + ( j − 1 ) ∗ C , . . . , x j ∗ C ] X^j_{ps} = [x_{1+(j-1)*C}, x_{2+(j-1)*C}, x_{3+(j-1)*C},..., x_{j*C}] Xpsj=[x1+(j1)C,x2+(j1)C,x3+(j1)C,...,xjC]

TVA block

Fig4
两种attention的主要区别在于X的维度变化:

  • Temporal Attention: Q ∈ R N ∗ C ∗ H C Q \isin R^{N * C * \frac{H}{C}} QRNCCH, K ∈ R N ∗ H C ∗ C K \isin R^{N * \frac{H}{C} * C} KRNCHC
  • Variable Attention: Q ∈ R H C ∗ C ∗ N Q \isin R^{ \frac{H}{C} * C * N} QRCHCN, K ∈ R H C ∗ N ∗ C K \isin R^{ \frac{H}{C} * N * C} KRCHNC
;