机器学习100天Machine Learning & Recommendation & NLP & DL

Pytorch学习记录-Seq2Seq模型实现(Encoder部

2019-04-24  本文已影响4人  我的昵称违规了

一点点总结
回过头看看这三天的模型,从一般LSTM Seq2Seq -> GRU Seq2Seq -> 基于注意力机制的 Seq2Seq

LSTM Seq2Seq.png
GRU Seq2Seq.png
基于注意力机制的 Seq2Seq.png

在构建模型的时候,对Encoder和Decoder进行拆分,最后通过Seq2Seq整合,如果含有Attention机制,还需要增加attention模块。

1. 先看三个模型的Encoder部分

Encoder就是处理输入Seq的模块,LSTM 和 GRU Seq2Seq比较类似,区别在于使用的cell类型(LSTM还是GRU)和输出结果(hidden,cell还是只有hidden),attention机制Seq2Seq复杂一些,因为是双向的。

1.1 LSTM Seq2Seq Encoder

2层LSTM,数据顺序从下往上。
Encoder输入参数:

Encoder返回参数:

class Encoder(nn.Module):
    def __init__(self, input_dim, emb_dim, hid_dim, n_layers, dropout):
        super(Encoder,self).__init__()
        self.input_dim=input_dim
        self.emb_dim=emb_dim
        self.hid_dim=hid_dim
        self.n_layers=n_layers
        self.dropout=dropout
        
        self.embedding=nn.Embedding(input_dim,emb_dim)
        self.rnn=nn.LSTM(emb_dim,hid_dim,n_layers,dropout=dropout)
        self.dropout=nn.Dropout(dropout)
    def forward(self, src):
        embedded=self.dropout(self.embedding(src))
        outputs, (hidden,cell)=self.rnn(embedded)
        return hidden ,cell

1.2 GRU Seq2Seq Encoder

和LSTM比较类似,做了单层GRU,dropout不再作为参数传入GRU,返回结果只有hidden状态
Encoder输入参数:

Encoder返回参数:

class Encoder(nn.Module):
    def __init__(self, input_dim, emb_dim, hid_dim, dropout):
        super(Encoder,self).__init__()
        
        self.input_dim=input_dim
        self.emb_dim=emb_dim
        self.hid_dim=hid_dim
        self.dropout=dropout
        
        self.embedding=nn.Embedding(input_dim,emb_dim)
        self.rnn=nn.GRU(emb_dim,hid_dim)
        self.dropout=nn.Dropout(dropout)
    def forward(self, src):
        embedded=self.dropout(self.embedding(src))
        outputs, hidden=self.rnn(embedded)
        return hidden

1.3 attention Seq2Seq Encoder

因为attention机制这个差别就比较大,使用单层GRU,通过bidirectional RNN,每层可以有两个RNN网络,这样就可以从左到右,从右到左对输入seq进行观察,得到上下文向量,从某种意义上说,是一种对文本的理解。
Encoder输入参数:

Encoder返回参数:

看一下实现

class Encoder(nn.Module):
    def __init__(self, input_dim, emb_dim, enc_hid_dim, dec_hid_dim, dropout):
        super(Encoder,self).__init__()
        
        self.input_dim=input_dim
        self.emb_dim=emb_dim
        self.enc_hid_dim=enc_hid_dim
        self.dec_hid_dim=dec_hid_dim
        self.dropout=dropout
        
        self.embedding=nn.Embedding(input_dim,emb_dim)
        self.rnn=nn.GRU(emb_dim,enc_hid_dim,bidirectional=True)
        self.fc=nn.Linear(enc_hid_dim*2,dec_hid_dim)
        self.dropout=nn.Dropout(dropout)
    def forward(self, src):
        embedded=self.dropout(self.embedding(src))
        outputs, hidden=self.rnn(embedded)
        hidden = torch.tanh(self.fc(torch.cat((hidden[-2,:,:], hidden[-1,:,:]), dim = 1)))
        return outputs, hidden
上一篇下一篇

猜你喜欢

热点阅读