自然语言处理—学习

GRU

2017-01-30  本文已影响189人  重新出发_砥砺前行

GRU(Gated Recurrent Unit Recurrent Neural Networks)


GRU 对两个方面进行了改进:1. 序列中不同的位置的单词对当前的隐藏层的状态的影响不同,越前面的影响越小。2. 误差可能是由某一个或者几个单词引起的,更新权值时应该只针对相应的单词。 

上一篇下一篇

猜你喜欢

热点阅读