程序员从零开始机器学习

从Keras开始掌握深度学习-4 通过TensorBoard分析

2018-10-27  本文已影响18人  养薛定谔的猫

前言

TensorBoard是一个机器学习的可视化工具,能够有效地展示Tensorflow在运行过程中的计算图、各种指标随着时间的变化趋势以及训练中使用到的数据信息。
通过使用TensorBoard,可以将训练过程中评价指标与训练次数绘制成折线图,从而观察诸如准确率提高的过程或损失下降的过程。同时,当我们更改模型的超参数(LearningRate等)时,TensorBoard还可以将不同的超参数对应的折线图分类,可以更加直观地观察超参数的选取对模型训练的影响。

准备代码

我们上一讲成果地编写了一个卷积网络的程序,这节课则需要用到这个程序。从Jupyter Notebook中导出为Python文件的方法很简单。点击左上角的File->Download As->Python即可。

导出为Python文件
由于在运行GPU的TensorFlow程序的时候,无论模型的规模,Tensorflow程序总是倾向于占用全部的显存VRAM。因此最好在程序运行之前,通过gpu_options来指定程序占用的显存的比例。
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.33)
sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))

这里指定的显存占用比例为0.33,也就是说这个Tensorflow的程序最多将会占用全部显存的1/3,而不是占用全部的显存。这点,当你在同时训练多个模型的时候极其有用。

Keras的TensorBoard回调函数(Callback)

Keras与TensorBoard的通讯基本上是通过Keras的回调函数来实现的。关于Keras的TensorBoard回调函数详见:
https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/TensorBoard?hl=zh-cn
目前,我们最关注的一个参数则是log_dir。log_dir指明了log文件希望保存的位置。
程序调用TensorBoard则需要引入相应的包:

from tensorflow.keras.callbacks import TensorBoard

当使用TensorBoard来可视化训练过程的时候,给每个模型起一个名字会是十分聪明的做法(因为TensorBoard会将很多模型可视化出来,起名字可以区分不同的模型)。
给模型起名字的方法有很多,为了确保每个模型都是独一无二的,因此我们在每个模型的名字后面加上时间作为后缀(用到time包)。

model_name = "kaggle_cat_dog-cnn-64x2-{}".format(int(time.time()))

上述命名的方法是"模型的名字-卷积核的大小-时间",当然,你也可以选择自己的命名方法,只要够直观、简洁、便于理解就可以。
紧接着在程序里面,通过以下的代码指明log_dir参数:

tensorboard = TensorBoard(log_dir='logs/{}'.format(model_name))

这样一来,不同的模型则会拥有不同的log文件夹。
最后,在调用Keras的model.fit方法中,指明TensorBoard的回调函数。注意,同一个模型可以有很多个回调函数,因此callbacks应该是一个列表。

model.fit(X, y, batch_size =32, epochs=10, validation_split=0.1, callbacks=[tensorboard])

至此,万事俱备了。打开控制台,通过python CNN in keras tutorial.py命令来运行我们的卷及网络程序吧!
程序运行完毕之后,在python文件的同级文件夹下面会出现一个logs文件夹,文件夹下面会有存放我们刚才训练的模型的tfevent文件的目录。

log文件

打开TensorBoard

当我们多运行几次之后,会出现不同的存放log文件的目录。为了可以在TensorBoard中查看这些log文件,我们需要再程序运行的主目录下面打开一个CMD窗口,通过如下命令打开TensorBoard:

tensorboard --logdir=logs/

运行上述命令之后,会出现如下提示:

TensorBoard 1.10.0 at http://DESKTOP-2S6AI38:6006 (Press CTRL+C to quit)

这时,只要将http://DESKTOP-2S6AI38:6006复制下来,在浏览器中打开就可以了。

TensorBoard的界面

TensorBoard的使用入门

通过在搜索框输入*号则可以将所有的图显示出来。


所有的图

可以看到一共有4张图,acc(准确率),loss(损失),val_acc(验证集准确率),val_loss(验证集损失)。
在机器学习的程序中,我们的目标是让准确率尽可能地提高,而损失则尽可能地降低。把鼠标放在图上则可以看到图上相应点的详细信息。以验证集损失为例。


验证集损失
通过分析验证集损失的折线图可以发现,在第5个epoch之后,验证集的损失开始上升。此时,如果机器学习的程序继续运行下去的话,且验证集准确度还在持续上升,那么则有可能会出现过拟合的情况。所以,在我们评估模型的时候,关注验证集损失不失为很好地一个方法。
让我们回到卷积网络的程序中,对程序进行修改,如修改卷积核的大小,去掉一个全连接层等。此处我们选择去掉全连接层,并且修改模型的名字之后重新训练。
进一步的训练结果

观察浅蓝色的曲线之后,发现去掉全连接层之后损失降得更低了,同时准确率也没有大幅下降。这时证明了我们的改变极有可能优化了模型。
下一讲中,我们将专注于如何利用TensorBoard去优化一个现有的模型。

上一篇下一篇

猜你喜欢

热点阅读