seq2seq实验记录

2019-11-12  本文已影响0人  云彩修建站站长

这里的训练主要关注如下几点:

  1. 模型
  2. 训练数据
  3. 模型参数

rnn版本seq2seq

对联

总体数据介绍

这里使用的是对联作为数据集,训练集770491 pair数据,测试集有4000pair数据。

实验1

训练数据

训练集使用了10w pair数据

模型参数

词向量没有经过预训练,下面是参数:

  1. hidden_unit 512
  2. layer 1
  3. dropout 0.2
  4. batch_size 64
  5. learning rate 0.001
  6. step 5000

效果

10w-512units-1layer-0.001-64batch_size-5kstep-45min.png

loss一直在下降,而且还有下降的趋势,总体耗时45分钟,下面是五个测试:

看上去效果还不错,1,3,4感觉有点不那么好,2,5感觉还可以。简单的韵律还是能学到的,比如三春对一世;清秋对明月;梦里对心中;千秋对一夜;月色对风光。这些都是在训练集中出现过的,学习到了,直接反应在了infer阶段。

但是更多的细节学习不到,比如:

总结:

  1. 能学习到普通词语的对仗
  2. 精巧一点的,比如叠词,如果训练集里面数据较多,还是可以学到的
  3. 更精巧一些的,比如“博士生,研究生,本科生”这种,需要先验知识的,seq2seq是学习不到的
    seq2seq只能学到train里面有的,表面上的特点;深层的,有先验知识的,学习不到。
上一篇 下一篇

猜你喜欢

热点阅读