大数据,机器学习,人工智能人工智能/模式识别/机器学习精华专题大数据 爬虫Python AI Sql

UDA半监督学习论文【终于说清楚了系列3】

2021-04-10  本文已影响0人  米米不多

UDA: Unsupervised Data Augmentation for Consistency Training

文章发表于NeurIPS 2020

半监督方法的目是充分利用少量的有标数据以及大量的无标数据。
为了充分利用有标数据,通常会对有标数据进行增强
为了充分利用无标数据,会通过一种方法给无标数据打上人工标签,然后就可以像有标数据一样利用起来
UDA的主要步骤如下:


image.png

1.给无标数据一个人工标签。无标数据的模型输出结果当做标签(置信度大于阈值,并经过锐化Sharpening)。
2.一致性正则。通过对一个无标数据增强一次并输入模型来拟合之前得到的人工标签(CE损失)。值得注意的是,这里的标签并不是one-hot的,而是一个概率分布。
3.有标数据的CE损失+无标数据的CE损失

由此可见,该方法一致性正则熵最小正则(smoothness/cluster assumption)的应用。
一致性正则体现在将一个无标数据前后标签一致
熵最小正则体现在给无标数据一个人工标签的过程(Sharpening)

实验

image.png

代码https://github.com/google-research/uda

上一篇下一篇

猜你喜欢

热点阅读