论文阅读“ Improving unsupervised ima

2023-01-04  本文已影响0人  掉了西红柿皮_Kee

Park S, Han S, Kim S, et al. Improving unsupervised image clustering with robust learning[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021: 12278-12287.

摘要导读

无监督图像聚类方法经常引入替代目标来间接训练模型,受到了faulty predictions and overconfident results的影响。为了克服这些挑战,目前的研究提出了一种灵感来自于鲁棒学习的创新模型RUC。提出的RUC模型的新颖之处在于利用现有图像聚类模型输出的伪标签作为一个可能包含错误分类样本的噪声数据集。其再训练过程可以修正错位的知识,缓解预测中的overconfident问题。该模型的灵活结构使其可以作为其他聚类方法的附加模块使用,并帮助它们在多个数据集上获得性能的提升。大量实验表明,该模型可以通过更好的校准来调整模型的置信度,并使得模型有对抗性噪声的鲁棒性。


整个过程可以概括为:使用现有无监督聚类方法对无标签数据进行聚类标签的预测,利用一定的采样策略(类似于主动学习中对样本的选择策略),构建clean data(有标签数据)及unclean data(无标签数据),然后利用半监督方法对样本重新进行标签的预测更新,进入下一轮迭代中...

MixMatch储备知识

MixMatch损失半监督领域毕竟经典且权威的算法,已经有大佬对其算法进行了阐述,这里给出链接。MixMatch

模型浅析

RUC是一种附加方法,可以与现有的无监督聚类方法结合使用,以实现对错误的预测进行改进。其关键思想是利用初始聚类结果作为噪声伪标签,然后通过一系列聚类假设和鲁棒学习技术来对这些预测标签进行修正。

划分clean data和unclean data

给定数据集\mathcal{D}=\{(x_i, y_i)\}_{i=1}^N,x_i为图像样本,y_i=g_\phi(x_i)是其对应的伪标签。首先需要使用模型将数据集划分为两个完全不相交的子集\mathcal{D}=\mathcal{X}\cup\mathcal{U}。这里认为\mathcal{X}是clean的,其伪标签是中等可信的,因此可以用作一个标记的数据集(x,y )\in \mathcal{X}进行训练。而那些unclean的样本因为对应的标签的置信度较低被丢弃,这些样本形成的集合为\mathcal{U}。作者这里使用了三种采样的方式:
(1)Confidence-based strategy
该方法基于无监督分类器的置信度得分来选择clean样本。给定任意(x, y) \in \mathcal{D},若其软分配y满足max(y) > \tau_1,那么将其划分到clean样本集合\mathcal{X}中。
(2)Metric-based strategy
基于度量的方法利用了在无监督方式学习的额外嵌入网络h_\psi。给定任意(x, y) \in \mathcal{D},首先计算其嵌入表示h_\psi(x),然后利用非参模型k-NN来得出y'=k-NN(h_\psi(x))。如果其原始的软分配表示y满足argmax(y')=argmax(y),那么(x,y)被纳入\mathcal{X}集合。
(3)Hybrid strategy
综合以上两种采样方式,若其对应的条件同时满足,则纳入clean data,否则纳入unclean data。

Retraining via Robust Learning

给定\mathcal{X}\mathcal{U},下一步的目标是训练改进的分类器f_{\theta},以修正初始无监督分类器的错误预测。
\mathcal{X}\mathcal{U}分别看做标记数据和无标记数据,做半监督聚类。在本文中使用的是经典半监督算法MixMatch,其过程可简化表示为:

其中H(p,q)表示交叉熵损失。
除此之外,本文还引入了label smooting。标签平滑通过添加均匀噪声来定义软标签,提高了预测中的校准。给定一个带有相应标签(x,y )\in \mathcal{X}的标记样本,将所有标签注入均匀噪声,如下所示: C是类别个数,\epsilon \sim Uniform(0,1)是噪声。这里使用软标记\tilde{y}和强增强样本\phi_A(x)的预测标记来计算交叉熵: 综合半监督的损失函数,最终其优化的目标可以表示为: \lambda_{\mathcal{U}}是其中的平衡因子。

对于co-refinement的过程而言,可以很显然的运用在多视图数据的场景之上,可以很好的综合不同视图的聚类结果,同时使用较高置信度的样本对其余视图进行调整。可以尝试一下该手法。较为难考虑的一点是,这势必要牵扯到无监督聚类和半监督聚类的结合,是否真的需要如此大动干戈。

上一篇下一篇

猜你喜欢

热点阅读