#GAN系列噜噜噜#1、GAN

2019-04-01  本文已影响0人  是风荷不是松鼠

Generative Adversarial Nets(2014NIPS)

原理理解了,具体数学上的定义都没看。。。被问蒙了。。。
学习不能不求甚解呜呜呜
仔细看一遍!!

Introduction

Adversarial nets

其中E_x~p_{data(x)}[\log{D(x)}]表示[\log{D(x)}]x属于p_{data(x)}分布下的期望

the training criterion allows one to recover the data generating distribution as G and D are given enough capacity, i.e., in the non-parametric limit

训练早期,G比较差的时候,D的输入非常容易辨别,因此\log{1-D(G(z))}的梯度值会很小,不利于G的训练。因此可以用\max\log{D(G(z))}来代替。

Theoretical Results

G含蓄的将概率分布p_g定义为当z~p_z时,样本G(Z)的分布,因此,我们希望算法1能够收敛于对p_{data}的较好的估计。

Algorithm 1


for number of training iterations do
\quadfor k steps do
\qquad选择m个z
\qquad选择m个x
\qquad更新判别器梯度:
\quadend for
\quad选择m个z
\quad更新生成器梯度
end for


1、p_g=p_{data}的全局最优性

G固定,D的最优解为
D^*_G(x)=\frac{p_{data}(x)}{p_{data}(x)+p_g(x)}
代回可得实际训练损失C(G),最小为-log4(满足D^*_G(x)时)
一般情况:
C(G)=-log4+KL(p_{data}||\frac{p_{data}+p_g}{2})+KL(p_g||\frac{p_{data}+p_g}{2})
可以写成Jensen–Shannon divergence(JS散度):
C(G)=-log4+2*JSD(p_{data}||p_g)
两种分布间的JS散度通常是非负的,且当他们相等时散度为0.

2、算法1的收敛性

损失收敛于↑
p_g收敛于p_{data}

*自己写给自己看的博客
*文章内容不保证正确
*部分内容来源于网络,侵删
今天也是元气满满的一天哦~~
冲鸭~~QWQ

上一篇 下一篇

猜你喜欢

热点阅读