编码器-解码器架构
机器翻译时序列转换模型的一个核心问题,其输入和输出都时长度可变的序列。巍峨了处理这种类型的输入和输出,我们可以设计一个包含两个主要组件的架构:
- 编码器(encoder):它接受一个长度可变的序列作为输入,并将其转换为具有固定形状的编码状态
- 解码器(decoder):它将固定形状的编码状态映射到长度可变的序列
这被称为编码器-解码器(encoder-decoder)架构
我们以英语到法语的机器翻译为例:给定一个英文的输入序列:“Thye”、“are”、“watching”、“.”。首先,这种“编码器-解码器”架构将长度可变的输入序列编码成一个“状态”,然后对该状态进行解码,一个词元接着一个词元地生成翻译后的序列作为输出:“Ils”、“regorden”、“.”。
由于“编码器-解码器”架构时形成后续章节中不同序列转换模型的基础,因此本节将把这个架构转换为借口方便后面的代码实现
1 - 编码器
在编码器接口中,我们只指定长度可变的序列作为编码器的输入X。任何继承这个Encoder基类的模型将完成代码实现
from torch import nn
class Encoder(nn.Module):
"""编码器-解码器架构的基本编码器接口"""
def __init__(self,**kwargs):
super(Encoder,self).__init__(**kwargs)
def forward(self,X,*args):
raise NotImplementedError
2 - 解码器
在下面的解码器接口中,我们新增一个init_state函数,用于将编码器的输出(enc_outputs)转换为编码后的状态。注意,此步骤可能需要额外的输入,例如:输入序列的有效长度,为了逐个地生成长度可变的词元序列,解码器在每个时间步都会将输入(前一时间步生成的词元)和编码后的状态映射成当前时间步的输出词元
class Decoder(nn.Module):
"""编码器-解码器架构的基本解码器接口"""
def __init__(self,**kwargs):
super(Decoder,self).__init__(**kwargs)
def init_state(self,enc_outputs,*args):
raise NotImplementedError
def forward(self,X,state):
raise NotImplementedError
3 - 合并编码器和解码器
总而言之,“编码器-解码器”架构包含了一个编码器和一个解码器,并且还拥有可选的额外参数,在前向传播中,编码器的输出用于生成编码状态,这个状态又被解码器作为其输入的一部分
class EncoderDecoder(nn.Module):
"""编码器-解码器架构的基类"""
def __init__(self,encoder,decoder,**kwargs):
super(EncoderDecoder,self).__init__(**kwargs)
self.encoder = encoder
self.decoder = decoder
def forward(self,enc_X,dec_X,*args):
enc_outputs = self.encoder(enc_X,*args)
dec_state = self.decoder.init_state(enc_outputs, *args)
return self.decoder(dec_X, dec_state)
“编码器-解码器”体系结构中的术语“状态”可能会启发你使用具有状态的神经网络来实现该架构。在下一节中,我们将学习如何应用循环神经网络,来设计基于“编码器-解码器”架构的序列转换模型
4 - 小结
- “编码器-解码器”架构可以将长度可变的序列作为输入和输出,因此适用于机器翻译等序列转换问题
- 编码器将长度可变的序列作为输入,并将其转换为具有固定形状的编码状态
- 解码器将具有固定形状的编码状态映射为长度可变的序列