Bootstrap

Graph Wavenet 学习笔记

Graph Wavenet 学习笔记

论文链接https://arxiv.org/pdf/1906.00121.pdf

当前研究的limitation

  1. 现有方法主要捕捉了固定的空间关系,这种空间关系是预先被决定的。但是这种图关系不一定反映了真正的依赖。
  2. RNN,CNN对long-range的时间关系不能进行正确的捕捉。

文章的主要贡献

  1. construct a self-adaptive adjacency matrix which
    preserves hidden spatial dependencies 用自适应的矩阵描述了空间的依赖关系
  2. present an effective and efficient framework to capture spatial-temporal dependencies simultaneously 能够同时捕获时空关系

采用的方法

图卷积层

a diffusion convolution layer

用于捕捉predefined graph dependency
https://zhuanlan.zhihu.com/p/76669259
针对无向图,求和公式如下
∑ k = 0 K p k X W k \sum_{k=0}^Kp^kXW_{k} k=0KpkXWk
p k p^k pk表示的其实就是一个转移的概率矩阵, p p p是接邻矩阵 A / r o w s u m ( A ) A/rowsum(A) A/rowsum(A) p p p中第 ( i , j ) (i,j) (i,j)个元素表示由 i i i j j j转移的概率,那么 p k p^k pk就表示的是通过 k k k步转移的概率。那么这里求和就表示的是通过 0 0 0 k k k步转移的能到达的点的特征由概率进行加权和。

self-adaptive adjacency matrix

用于捕捉hidden graph dependency
A ‾ a p t = S o f t M a x ( R e L U ( E 1 E 2 T ) ) \overline{A}_{apt}=SoftMax(ReLU(E_1E_2^T)) Aapt=SoftMax(ReLU(E1E2T))
E 1 E_1 E1表示source node embedding, E 2 E_2 E2表示target node embedding。两者乘积表征的是spatial dependency weights, R e L U ReLU ReLU用于消除弱的关系, S o f t M a x SoftMax SoftMax用于normalize。
在这里插入图片描述

时间上的卷积网络

dilated casual convolution

这里推荐一篇很好的博文https://www.zhihu.com/question/54149221讲如何理解空洞卷积。为什么需要空洞卷积呢?空洞卷积主要针对需要感受野很大的数据,例如这儿的语音数据就是需要分析较长的sequence。
在这里插入图片描述

Gating mechanisms

在这里插入图片描述
g g g是激活函数, σ \sigma σ是 sigmoid 函数,表示了控制传入下一层的特征。

总体网络的设计

;