UDA Unsupervised data augmentati

2019-10-13  本文已影响0人  默写年华Antifragile

Unsupervised data augmentation for Consistency training.

题目解释:

1. Abstract

当标签数据比较少时,半监督学习能够有效提升模型性能。当前的许多方法主要是在大量无标签的数据中使用一致性学习可以使得模型能够有效抵抗输入噪声。这里我们切入一个新的角度:

通过利用监督学习中的数据增强方法来对无标签数据添加噪声再进行一致性训练,取得了非常好的效果

2. 本文的贡献

3. UDA

3.1 监督学习中数据增强

监督学习中的数据增强等同于在原来给定的标签集合的基础上构建一个增广集合,然后在增广集合上训练模型。也就是说,在原来集合进行数据增强构成的增广集合应该提供了更加有效的先验(inductive bias),以帮助模型进行预测。

3.2 无监督学习中的数据增强

当前的无监督数据增强方法流程如下:

以上流程就可以使得模型对于噪声就更具有鲁棒性,当输入集合发生变化时预测会更加平滑,不会发生较大突变。从另一个角度来看,最小化一致性损失逐渐地将标签数据上标签信息传递到无标签数据上


监督学习里的数据增强告诉我们,当数据增强产生的数据越多样化越自然,模型的性能提升也就越明显
基于这个经验,我们提出使用各种不同的监督学习数据增强方法来对无标签数据进行噪声注入,然后再进行一致性训练(consistency training)
整体框架如图所示:


image.png

讨论:Why advanced data augmentations better than simple ones

不同任务中的增强策略

  1. 图片分类任务中的随机增强:RandomAugment,从AutoAugment演化而来。

    • AutoAugment使用一种搜索策略去组合PIL库中的各种图片转换方法;Random Augment则是正态地从PIL中的各种图片转换方法进行挑选;换句话说,RandomAugment更简单而且不需要标签,因为不需要搜寻最优增强策略
  2. 文本分类中的 Back-translation: Back-translation通过把原语句翻译成外语,再从外语翻译回来进行数据增强,这样得到的新数据和原数据不一样,但是具有相同的意思。


我们发现,数据增强的diversity比validity和quality更重要,因此我们采取带有一个可调 temperature参数来随机采样,而不是进行beam search,

Training Signal Annealing for low-data regime

数据比较少时采用的退火策略
在半监督学习中,我们经常会遇到有标签数据和无标签数据在树数目存在巨大差异,因此模型会很快过拟合少量的标签数据,而在无标签数据上却还是欠拟合,为了解决这个问题,本文提出了一个Training Signal Annealing策略,这个策略会在训练过程中逐渐释放标签样本的 "training signal"

也就是说,模型刚开始不拟合容易样本,将预测置信度高的标签样本都扔掉,这部分标记数据的误差无法反向传递,从而避免模型进一步过拟合到这些容易样本。;后面再逐步将阈值提高,把之前没有进行拟合的容易样本再加回来,以防止过拟合。

4. 实验

4.1 有监督和无监督在不同数据增强方法的比较

image.png

可以看到,无论是有监督还是无监督,数据增强方法越好,其效果也越好

4.2 不同半监督算法benchmark的比较:

image.png

3. ImageNet

image.png

4. Ablation Studies for TSA

image.png

总结

好的数据增广技术不仅能提高监督学习的预测精度,也能大大提高半监督学习的预测精度,这样可以利用巨量的无标签数据,在保证性能的同时节约了成本。

上一篇下一篇

猜你喜欢

热点阅读