Bootstrap

现代循环神经网络 - 编码器-解码器架构

编码器-解码器架构

机器翻译时序列转换模型的一个核心问题,其输入和输出都时长度可变的序列。巍峨了处理这种类型的输入和输出,我们可以设计一个包含两个主要组件的架构:

  • 编码器(encoder):它接受一个长度可变的序列作为输入,并将其转换为具有固定形状的编码状态
  • 解码器(decoder):它将固定形状的编码状态映射到长度可变的序列

这被称为编码器-解码器(encoder-decoder)架构

我们以英语到法语的机器翻译为例:给定一个英文的输入序列:“Thye”、“are”、“watching”、“.”。首先,这种“编码器-解码器”架构将长度可变的输入序列编码成一个“状态”,然后对该状态进行解码,一个词元接着一个词元地生成翻译后的序列作为输出:“Ils”、“regorden”、“.”。

由于“编码器-解码器”架构时形成后续章节中不同序列转换模型的基础,因此本节将把这个架构转换为借口方便后面的代码实现

1 - 编码器

在编码器接口中,我们只指定长度可变的序列作为编码器的输入X。任何继承这个Encoder基类的模型将完成代码实现

from torch import nn

class Encoder(nn.Module):
    """编码器-解码器架构的基本编码器接口"""
    def __init__(self,**kwargs):
        super(Encoder,self).__init__(**kwargs)
    
    def forward(self,X,*args):
        raise NotImplementedError

2 - 解码器

在下面的解码器接口中,我们新增一个init_state函数,用于将编码器的输出(enc_outputs)转换为编码后的状态。注意,此步骤可能需要额外的输入,例如:输入序列的有效长度,为了逐个地生成长度可变的词元序列,解码器在每个时间步都会将输入(前一时间步生成的词元)和编码后的状态映射成当前时间步的输出词元

class Decoder(nn.Module):
    """编码器-解码器架构的基本解码器接口"""
    def __init__(self,**kwargs):
        super(Decoder,self).__init__(**kwargs)
        
    def init_state(self,enc_outputs,*args):
        raise NotImplementedError
        
    def forward(self,X,state):
        raise NotImplementedError

3 - 合并编码器和解码器

总而言之,“编码器-解码器”架构包含了一个编码器和一个解码器,并且还拥有可选的额外参数,在前向传播中,编码器的输出用于生成编码状态,这个状态又被解码器作为其输入的一部分

class EncoderDecoder(nn.Module):
    """编码器-解码器架构的基类"""
    def __init__(self,encoder,decoder,**kwargs):
        super(EncoderDecoder,self).__init__(**kwargs)
        self.encoder = encoder
        self.decoder = decoder
        
    def forward(self,enc_X,dec_X,*args):
        enc_outputs = self.encoder(enc_X,*args)
        dec_state = self.decoder.init_state(enc_outputs, *args)
        return self.decoder(dec_X, dec_state)

“编码器-解码器”体系结构中的术语“状态”可能会启发你使用具有状态的神经网络来实现该架构。在下一节中,我们将学习如何应用循环神经网络,来设计基于“编码器-解码器”架构的序列转换模型

4 - 小结

  • “编码器-解码器”架构可以将长度可变的序列作为输入和输出,因此适用于机器翻译等序列转换问题
  • 编码器将长度可变的序列作为输入,并将其转换为具有固定形状的编码状态
  • 解码器将具有固定形状的编码状态映射为长度可变的序列
;