流量热赞

论文阅读“MORI-RAN: Multi-view Robust

2023-02-27  本文已影响0人  掉了西红柿皮_Kee

Ke, Guanzhou et al. “MORI-RAN: Multi-view Robust Representation Learning via Hybrid Contrastive Fusion.” 2022 IEEE International Conference on Data Mining Workshops (ICDMW) (2022): 467-474.

摘要导读

对于多视图聚类和分类任务而言,其表示学习是非常关键的。然而,这里始终有两个较为困扰的问题:i) 如何从大量的无标签样本中学到鲁棒的多视图表示,ii) 如何做好视图一致性和特有性的平衡。为此,本文提出了一个混合对比融合方法用于从无标签样本中抽取鲁棒的视图共享表示。具体来说,作者发现引入一个额外的表示空间并且在这个空间中对齐表示使得模型可以学习到视图共享表示。同时,为保证模型的坍塌,还设计了一个非对称的对比策略避免获得平凡解。通过对比实验证明了模型的有效性。

Intro梳理
在Intro中主要是现有融合方法进行了分类梳理,将其分为如下两类:

并指出(a)中使用的融合方式输出的用于下游任务表示的维度总是和视图的数量成线性增长;而在(b)中的方式则可以输出任意维度的表示,容易满足不同下游任务的需要。

模型浅析
数据定义及目标:

A. 模型结构

B. 混合对比模块的设计及其损失

算法的整体流程如下:

显然这是作者基于自己前序工作做的一次改进,上次的论文详情这里给出https://www.jianshu.com/p/5a3dc36d5639。相比于之前直接最大化zh^v的互信息

在这个版本中加入了类簇对比损失,并且对对比的损失进行了升级。有兴趣的可以做一个简单的对比。总体来说,还是使用对比的方式进行视图融合以得到鲁棒的视图共享表示z,只是驱动的目标不一样了,且在本文的学习中强调了表示学习的重要性,而不局限于特定的下游任务。
上一篇下一篇

猜你喜欢

热点阅读