LSTM

2017-03-12  本文已影响109人  Biss

Recurrent Neural Networks

Paste_Image.png Paste_Image.png

The Problem of Long-Term Dependencies

Paste_Image.png Paste_Image.png Paste_Image.png

The Core Idea Behind LSTMs

Paste_Image.png Paste_Image.png

它决定有多少信息通过。0意味着不让任何信息通过,1意味着让所有信息通过。

Step-by-Step LSTM Walk Through

Paste_Image.png Paste_Image.png Paste_Image.png Paste_Image.png

LSTM变形

1.我们希望在忘记之前能够查看cell state的情况(peepholes)

Paste_Image.png

2.当我们忘记旧的东西,我们才加入新的值

Paste_Image.png

3.把forget gate 和 input gate 变成update gate。把cell state 和hidden state 结合在一起。

Paste_Image.png
上一篇下一篇

猜你喜欢

热点阅读