自然语言处理

Batch详解

2021-11-05  本文已影响0人  晓柒NLP与药物设计

Batch_Size(批尺寸)是机器学习中一个重要参数,下文详细讲解Batch的意义以及相关概念的区别

1. 定义

相关衍生概念

Batch_size = n时,模型状态如下:

2. 基于Batch训练的优势

Batch的选择,首先决定的是梯度下降的方向,如果数据集比较小,完全可以采用全数据集(Full Batch Learning)的形式,这样做有 2 个好处

3. Batch_size大小的选取

Batch_size选取过大或过小都会降低模型的性能,只当选择合适的区间才能得到较好的结果

在一定范围内,增加batch_size有助于收敛的稳定性,但是随着batch_size的增加,模型的性能会下降

ICLR 2017

1 表明大的batchsize会收敛到sharp minimum,而小的batchsize会收敛到flat minimum,后者具有更好的泛化能力。两者的区别就在于变化的趋势,一个快一个慢,如下图,造成这个现象的主要原因是小的batchsize带来的噪声有助于逃离sharp minimum。


个人建议

上一篇 下一篇

猜你喜欢

热点阅读