GAN Lecture 1 (2018)-Introductio

2019-04-23  本文已影响0人  小亚丫丫丫

有用的英文表达

since sliced bread 有史以来(形容一项技术非常好)

1.Basic idea of GAN

Generation

图像生成:输入一个向量,输出一张图片。

Discriminator

输入一张图片,给出一个scalar(分数)。

scalar越大,代表图像越真实;越小,代表越假。

Generator VS Discriminator

写作敌人,念做朋友

算法

详细的算法

IMG_0013.PNG

2.GAN as structured learning

structured learning

IMG_0014.PNG

为什么结构化学习这么具有挑战性?

结构化学习的方法——局部+全局

IMG_0015.PNG

3.Can Generator learn by itself?

  1. G是输入一个向量,输出一张图片,那输入的向量(code)哪里来?

  2. Encoder in auto-encoder provides the code

  3. Auto-encoder的后半部分——Decoder就是一个G(Generator)


    IMG_0016.PNG
  4. Auto-encoder的改进版本:Variational Auto-encoder(VAE)

  5. what do we miss?

    • Each neural in output layer corresponds to a pixel.
    • The relation between the components are critical.
    • Although highly correlated, they cannot influence each other.
    • Need deep structure to catch the relation between components.

4.Can Discriminator generate?

  1. Discriminator的输入是一个对象,比如一张图象,输出是一个scalar,代表对象的好坏

  2. 自上而下地评价组分之间的关系是很容易的.


    IMG_0017.PNG
  3. 假设我们已经有D,可以生成所有可能的对象,然后选择中间得分最高的作为最终结果

  4. 怎么训练D?我们只有真实图像,如何产生假图?

  5. 通常的算法:给一系列真实样本,随机生成假的样本


5.G和D的比较

G是从局部考虑,D是全局考虑。


IMG_0019.PNG

6.Benefit of GAN

IMG_0020.PNG
上一篇 下一篇

猜你喜欢

热点阅读