ICLR20 - 旷视研究院提出MABN:解决小批量训练BN不稳

2020-02-15  本文已影响0人  CristianoC

本次先大体翻译MABN的论文,有机会我会把YOLO中的BN换成MABN在小批次上试试效果。

目录

背景

  1. 通过纠正批统计量来还原BN在样本批次量充足时的性能,但是这些办法全都无法完全恢复BN的性能
  2. 使用实例级的归一化 (instance level normalization),使模型免受批统计量的影响。这一类方法可在一定程度上恢复BN在小批次上的性能,但是目前看来,实例级的归一化方法不能完全满足工业需求,因为这类方法必须在推理过程(inference)引入额外的非线性运算,大幅增加执行开销。

简介

批归一化中的统计量

回顾普通BN

批统计量的不稳定性

  1. 小批次统计量的不稳定性使训练不稳定,导致收敛缓慢
  2. 小批次统计量的不稳定性会在批统计量和总体统计量之间产生巨大差异

滑动平均批归一化

  1. 使用滑动平均统计量(MAS)估计总体统计量.
  2. 通过改进归一化形式减少统计量的数量。

滑动平均统计量代替批统计量

通过减少统计量的数量稳定归一化

实验

ImageNet

表1:ImageNet分类任务中ResNet-50 top-1错误率对比

COCO

论文地址

Towards Stablizing Batch Statistics in Backward Propagation of Batch Normalization

上一篇 下一篇

猜你喜欢

热点阅读