论文粗读“Joint contrastive triple-le

2023-06-13  本文已影响0人  掉了西红柿皮_Kee

Hu S, Zou G, Zhang C, et al. Joint contrastive triple-learning for deep multi-view clustering[J]. Information Processing & Management, 2023, 60(3): 103284.

模型动机

(1)目前深度对比MVC模型只关注单方面的对比学习,例如:样本特征级别或者类簇级别的对比。(2)目前MVC大部分都是两阶段模型(?)。
本文提出了一种端到端的多对比学习联合的MVC框架。

模型浅析

模型架构图。

主要的模型流程为:

联合对比的三重学习模块

该模块主要包含三个不同目标的对比损失,即feature-level alignment-oriented,commonality-oriented CL losses, 以及 cluster-level consistency-oriented CL loss。前两种损失的目的是对比不同特征级别的样本的编码特征表示,而最后一个是对视图类簇表示的对比。总体的损失函数如下:

其中0 < \alpha < 1, 0 < \beta < 1是平衡因子。

For the deep MVC, each data sample is described by different views andthus the positive and negative pairs are naturally formed. (真的有人这么写!!) In other words, each sample has one set of observations from different views that are related to it in multi-view clustering. Thus, the same data samples from different views can be naturally drawn as positive pairs, while the remaining sample pairs (i.e., different samples within each view or across different views) are drawn as negative pairs.

首先,计算了两个特征表示h_i^u, h_i^v之间的余弦相似度:

因此,可以定义如下的多视图NT-Xent CL 损失: 其中,如果满足约束u \neq v, 则 l_i^{uv}的定义如下: 这里的负例包含了在同一视图或者不同视图的不同样本。(个人认为红框中的表示存在一定的歧义)
View weight learning module

多视图融合表示由加权的方式形成:

w^i表示每个视图的权重。这里并不要求对初始化的权重进行标准化,而是直接将其作为网络参数进行更新。最后,使用softmax函数来得到每个视图的权重。
Data clustering module

这块使用的是针对融合后表示的DDC聚类损失\mathcal{L}_{DDC},其中包含三项,这里将不进行赘述。

Optimization
提出的框架中的上述三个模块是以端到端方式共同执行的。通过以联合优化的方式运行,该框架能够获得适当的平衡,并最终获得聚类结果。
部分实验设置

emmm...一直在思考第一种和第二种的feature-level的对比学习有什么不同?

上一篇 下一篇

猜你喜欢

热点阅读