GAN

2019-01-18  本文已影响0人  bitzoo

基本原理

GAN(Generative Adversarial Networks) 的基本原理其实非常简单,这里以生成图片为例进行说明。假设我们有两个网络,G(Generator)和D(Discriminator)。正如它的名字所暗示的那样,它们的功能分别是:

    1. G是一个生成图片的网络,它接收一个随机的噪声z,通过这个噪声生成图片,记做G(z)。
    2. D是一个判别网络,判别一张图片是不是“真实的”。它的输入参数是x,x代表一张图片,输出D(x)代表x为真实图片的概率,如果为1,就代表100%是真实的图片,而输出为0,就代表不可能是真实的图片。

在训练过程中,生成网络G的目标就是尽量生成真实的图片去欺骗判别网络D。而D的目标就是尽量把G生成的图片和真实的图片分别开来。这样,G和D构成了一个动态的“博弈过程”。

最后博弈的结果是什么?在最理想的状态下,G可以生成足以“以假乱真”的图片G(z)。对于D来说,它难以判定G生成的图片究竟是不是真实的,因此D(G(z)) = 0.5。

这样我们的目的就达成了:我们得到了一个生成式的模型G,它可以用来生成图片。以上只是大致说了一下GAN的核心原理,如何用数学语言描述呢?

论文里的公式

    1. 整个式子由两项构成。x表示真实图片,z表示输入G网络的噪声,而G(z)表示G网络生成的图片。
    2. D(x)表示D网络判断真实图片是否真实的概率(因为x就是真实的,所以对于D来说,这个值越接近1越好)。而D(G(z))是D网络判断G生成的图片的是否真实的概率。
    3. G的目的:上面提到过,D(G(z))是D网络判断G生成的图片是否真实的概率,G应该希望自己生成的图片“越接近真实越好”。也就是说,G希望D(G(z))尽可能得大,这时V(D, G)会变小。因此我们看到式子的最前面的记号是min_G。
    4. D的目的:D的能力越强,D(x)应该越大,D(G(z))应该越小。这时V(D,G)会变大。因此式子对于D来说是求最大(max_D)

训练过程

DCGAN原理介绍

DCGAN(Deep Convolutional Generative Adversarial Networks)

DCGAN的原理和GAN是一样的,这里就不在赘述。它只是把上述的G和D换成了两个卷积神经网络(CNN)。但不是直接换就可以了,DCGAN对卷积神经网络的结构做了一些改变,以提高样本的质量和收敛的速度,这些改变有:

    1. 取消所有pooling层。G网络中使用转置卷积(transposed convolutional layer)进行上采样,D网络中用加入stride的卷积代替pooling。
    2. 在D和G中均使用batch normalization
    3. 去掉FC层,使网络变为全卷积网络
    4. G网络中使用ReLU作为激活函数,最后一层使用tanh
    5. D网络中使用LeakyReLU作为激活函数

DCGAN中的G网络示意 D网络示意

DCGAN example in tensorflow

https://github.com/carpedm20/DCGAN-tensorflow

使用 tensorboard 出现locale.Error: unsupported locale setting错误解决方法:

export LANGUAGE=en_US.UTF-8 和 export LC_ALL=en_US.UTF-8
使得编码方式统一。这样可以成功执行tensorboard --logdir=./logs

引用

https://www.cnblogs.com/baiting/p/8314936.html
https://www.cnblogs.com/Charles-Wan/p/6238033.html
https://arxiv.org/abs/1406.2661
https://arxiv.org/abs/1511.06434
http://www.sohu.com/a/121189842_465975
https://github.com/carpedm20/DCGAN-tensorflow
http://bamos.github.io/2016/08/09/deep-completion/

上一篇下一篇

猜你喜欢

热点阅读