10月8号学习周总结——体验RNN

2017-10-09  本文已影响0人  liuchungui

十一过完了,但却呆在家里没出去,唯一的欣慰就是体验了下强大的RNN。

RNN是什么呢?

它是循环神经网络,与普通的神经网络和CNN不同的是,它可以像人一样,可以基于以前事情的记忆和理解,来进行理解现在所发生的事情。这是因为,它是循环网络结构,可以将之前的状态与当前的输入一起传递给当前神经元进行计算,这就像人有记忆了一样。

而RNN存在长期依赖的问题——由于变深的结构使模型丧失了学习到先前信息的能力,而LSTM可以解决个问题。

LSTM是一种特殊的RNN,它能学习和存储长期依赖关系,这是因为它是门控模型,每个神经元都是一个“记忆细胞”,细胞里有三门:遗忘门、输出门、输入门。在训练成模型之后,它会选择性对以前的信息进行遗忘还是使用。其中,门控模型中,还有一个GNU也值得关注。

RNN应用范围很广,例如:语音识别、机器翻译、图片说明等等。

至于RNN和LSTM中的具体结构与实现,暂时还了解的不是很透彻,里面的公式还没有看懂。

使用

总结与计划

算是总体上对RNN有个了解,并且体验了它的强大。接下来,就是对它内部的细节实现具体了解,搞清楚原理。当然,中途也去跑跑数据,看看能做出有意思的东西。

参考:
理解LSTM Networks
RNN 循环神经网络(下):长期依赖的挑战与长短期记忆
深度循环神经网络与 LSTM 模型

上一篇下一篇

猜你喜欢

热点阅读