Python深度学习(第二部分-2)

2020-12-30  本文已影响0人  沉寂之舟

传送门:
Python深度学习(第一部分)
Python深度学习(第二部分 -1)
Python深度学习(第二部分 -2)


深入部分,看这一本肯定不够,需要其他资料深入学习

第七章 高级的深度学习最佳实践

1. Keras 函数式 API

之前的例子都是线性结构的深度学习网络结构,显然并不"高级".


7-1.png

实践中,可以是多种多样的,Inception ,残差连接都属于这种.


7-2.png

函数式 API

2. 使用 Keras 回调函数和 TensorBoard 来检查并监控深度学习模型

机器学习在Fit调用后是自动执行的,为了更加细致地监控/了解每次迭代的变化和改进,引入了回调函数(生命周期)

7-3.png 7-4.png

TensorBoard是一个特殊的回调函数类,使用 TensorFlow 后端时,有个基于浏览器的可视化工具.

3. 让模型性能发挥到极致

第八章 生成式深度学习

前面解决了反应式问题,但是现实很多问题需要的是创造型活动,深度学习也能做到.而且这些应用也都达到"可用"级别,如果要完全搞懂,每个都需要大量的时间投入,目前我只能理解一下基本原理.

1. 使用 LSTM 生成文本(AI写小说)

生成文本,使用了循环网络可预测下一个数据的特性.通过采样->输入->采样的过程持续中训练好的网络得到输出.

8-1.png

由于这种方式仅仅是统计数据采样,并非真正的语义创新.

2. DeepDream(AI画画)

使用反向运行卷积神经网络,从而从一个输出获得输入(生成神奇图片)

3. 神经风格迁移(AI图片合成)

针对目标+风格=组合


8-2.png

具体原理为定义风格与内容,并将总损失最小化:
loss = distance(style(reference_image) - style(generated_image)) + distance(content(reference_image) - content(generated_image))
因此需要从数学上定义style和content两个函数,其中content比较简单,它就是网络中靠近顶部的信息,风格就比较麻烦,需要格拉姆矩阵(Gram matrix)计算.

具体步骤:

这种方法需要学习纹理,运算并不快,实际可以根据某种风格进行预训练,然后对内容进行快速迁移(一个小型卷积网络的一次前向传递)

4. 用变分自编码器生成图像

通过训练生成图像的潜在空间,再通过生成器/解码器反向映射回图像空间.VAE/GAN都可用,其中VAE由于具有连续性,可用生成逐渐变化的图片(网络上人老去的图片生成算法...)

变分自编码器:重构损失,正则化损失是VAE的参数.

5. 生成式对抗网络简介

为了使得深度学习获得更好的精度,对抗网络是强大的算法(通过培养对手-判别器,让自己更强大).起原理为构建2组神经网络.生成器网络,判别器网络,并且不固定优化最小值(通过动态调整梯度下降),因此,GAN训练很困难,很复杂.


8-3.png

流程:

技巧:

这些技巧原理并没介绍,这里直接说结论..

具体代码,生成器和判别器相对简单,重点在组合两个部分以及训练部分:


8-4.png 8-5.png

第九章 总结1

作者的总结,比我的笔记精要多了,我可没法做总结的总结..
局限性和未来部分,特别是揉纸团和登月任务的比喻,很精辟,值得借鉴使用.

上一篇 下一篇

猜你喜欢

热点阅读