大数据,机器学习,人工智能自然语言处理 (让机器更懂你)机器学习与数据挖掘

循环神经网络

2019-04-19  本文已影响3人  dreampai

循环神经网络相对于前馈神经网络的有哪些优点?

处理文本数据,循环神经网络与前馈神经网络相比有什么优点?

循环神经网络的梯度消失问题

循环神经网络的激活函数

为什么卷积神经网络不会出现严重的数值问题呢?
卷积神经网络中每一层的权重矩阵 W 是不同的,并且在初始化时它们是独立同分布的,因此可以相互抵消,在多层之后一般不会出现严重的数值问题。
循环神经网络采用 ReLu 激活函数,只有当 W 的取值在单位矩阵附近时才能取得比较好的效果,因此需要将 W 初始化为单位矩阵。

长短期记忆网络

Seq2Seq

Seq2Seq 模型在解码时,有哪些常用的方法?

Seq2Seq 模型最基础的解码方法是贪心法,即选取一种度量标准后,每次都在当前状态下选择最佳的一个结果,直到结束。贪心法的计算代价低,适合作为基准结果与其他方法相比较。贪心法获得的是一个局部最优解,由于实际问题的复杂性,该方法往往不能取得最好的结果。
集束搜索:是一种启发式算法,会保存 beam size 个当前的较佳选择,然后解码时每一步根据保存的选则进行下一步扩展和排序,接着选择前 b 个进行保存,循环迭代,知道结束时选择最佳的一个作为解码的结果。b 往往选择一个适中的范围,以 8-12 为佳。

image.png

注意力机制

Seq2Seq 模型引入注意力机制是为了解决什么问题?为什么选用了双向的循环神经网络模型?
编码时输入序列的全部信息压缩到了一个向量中,随着序列增长,句子越前面的词的信息丢失越严重。同时,Seq2Seq 模型的输出序列中,常常会损失部分输入序列信息,这是解码时,当前词及对应的源语言词的上下文信息和位置信息在编解码过程中丢失了。引入注意力机制,解决上述问题。使用双向的循环神经网络进行建模,可以获取前后文的信息。

上一篇 下一篇

猜你喜欢

热点阅读