自然语言处理—学习自然语言处理(NLP)深度学习-推荐系统-CV-NLP

SeqGAN:Sequence Generative Adver

2018-12-04  本文已影响4人  Mordekaiser

论文:SeqGAN
代码:Github

这篇paper主要介绍了GAN在文本生成上的应用。GAN在2014年被提出之后,在图像生成领域取得了广泛的研究应用。然后在文本领域却一直没有很惊艳的效果。主要在于文本数据是离散数据,而GAN在应用于离散数据时存在以下几个问题:

背景知识

什么是策略梯度下降?

对于监督学习算法,我们通常会使用梯度下降来进行优化。梯度下降算法计算损失函数的梯度需要首先计算标签与预测结果的loss。可是对于强化学习问题,根本不存在标签。我们只有通过不断的试错来实现优化。在强化学习中,每一个action都会有一个reward。整个算法就是需要最大化期望reward。对于最大化reward推导出来的公式,就是策略梯度下降算法。

什么是蒙特卡洛采样?

可以根据已知概率分布的函数f(x)产生服从此分布的样本X。具体原来可以查看30分钟了解蒙特卡洛采样

SeqGAN原理

整个算法在GAN的框架下,结合强化学习来做文本生成。 模型示意图如下:


seqGAN模型

在文本生成任务,seqGAN相比较于普通GAN区别在以下几点:

上一篇下一篇

猜你喜欢

热点阅读