论文阅读“Semantically Consistent Mul

2023-11-27  本文已影响0人  掉了西红柿皮_Kee

Semantically Consistent Multi-view Representation Learning (KBS2023, on line)

摘要导读

该项工作致力于无监督多视图表示学习(UMRL,Unsupervised Multi-view Representation Learning)这一具有挑战性的任务,要求以无监督的方式从多个视图中学习统一的特征表示。现有的 UMRL 方法主要集中在特征空间的学习过程,而忽略了隐藏在不同视图中的宝贵语义信息。针对这一问题,本文提出了一种新颖的语义一致性多视图表示学习(SCMRL)框架,该方法致力于挖掘底层的多视图语义共识信息,并利用这些信息指导统一特征表示学习。具体来说,SCMRL 包括一个视图内重构模块和一个统一特征表征学习模块,这两个模块通过对比学习策略巧妙地整合在一起,使特定视图特征表征和学习到的统一特征表征的语义标签同时保持一致。这样,就能有效利用语义空间中的共识信息来约束统一特征表征的学习过程。在下游聚类和分类任务上展现出了出色性能。

模型浅析
模型架构图
数据定义

给定多视图数据\{X^{(i)}\}_{i=1}^m包含m个视图,其中第i个视图对应的原始特征空间为X^{(i)} \in R^{N \times D_i}。其中ND_i分别表示样本的个数和特征空间的维度。整个模型的目标是学习统一的多视图特征表示H \in R^{N \times D_H}

模型
算法优化

输入:多视图数据集\{X^{(i)}\}_{i=1}^m温度参数\tau;类簇个数k
输出:统一的特征表示H

1.  通过重构损失训练各视图的自编码器(AE的预训练过程)
2. 使用视图平均表示初始化 H
3. while not converged do
4.      使用预训练的编码器部分获得各视图低维表示 Z
5.      使用语义分类器获取(m+1)个标签分布 Q
6.      使用整体损失对整个网络的参数进行更新
7. end
总结

通过引入语义一致性对比学习,本文将视图内重构与统一特征表征学习结合起来,并探索语义空间中有价值的共识语义信息,以指导整个网络的学习过程。

上一篇 下一篇

猜你喜欢

热点阅读