原始GAN初探

2019-07-27  本文已影响0人  zhouycoriginal

GAN的学习是一个二人博弈问题,最终目标是达到纳什平衡。

原始GAN的目标优化函数如下:
\min\limits_{G} \max\limits_{D}=E_{x-p_{data(x)}}[\log(D(X))]+E_{z-p_{z}}[1-\log(D(G(z))]
目标是最小化G,最大化D:
对于D来说,先固定住G:

For D:
\max\limits_{D}=E_{x-p_{data(x)}}[\log(D(X))]+E_{z-p_{z}}[1-\log(D(G(z))]
D最大话意味着:D要尽可能的识别真样本D(X)和假样本D(G(z)), 即将真样本识别为1,假样本识别为0,否则第一部分的公式将趋于负无穷,第二部分也将趋于负无穷:
D(X)\uparrow\space\Rightarrow\space\log(D(X))\uparrow
D(G(z))\downarrow\space\Rightarrow\space\log(D(G(z)))\downarrow\space\Rightarrow\space 1-\log D(G(z))\downarrow

For G:
\min\limits_{G}=E_{x-p_{data(x)}}[\log(D(X))]+E_{z-p_{z}}[1-\log(D(G(z))]
因为第一项是没有用的(D部分),所以等价于
=>\max\limits_{G}=E_{z-p_{z}}[\log(D(G(z))]


GAN的最优情况:
For D:
D_{G}=\frac{P_{data}}{P_{data}+P_{fake}}
此处也解释了为什么当D的loss为0.5是认为是最优的D
For G:
G的目标就是生成和真实数据一样的分,故G的最优情况为:
P_{data} = \frac{P_{data}+P_{G}}{2}
P_{data}=P_{fake}

上一篇下一篇

猜你喜欢

热点阅读