论文阅读“Deep Cross-Modal Subspace C

2023-12-15  本文已影响0人  掉了西红柿皮_Kee

Deep Cross-Modal Subspace Clustering with Contrastive Neighbour Embedding

摘要导读

深度跨模态聚类近年来发展迅速,引起了广泛关注。它的目的是从不同模态的深度神经网络中学习一个一致的子空间以此来提升聚类性能。然而,大多数现有的方法在重构跨模态数据时,并不同时考虑每个模态的内在信息和邻居几何结构,不可避免地降低了公共子空间所揭示的簇结构的准确性。
本文提出了一种基于一致近邻嵌入表示的深度跨模态子空间聚类方法(DCSC-CNE)来解决上述问题。该方法可以保持各模态的固有独立性,同时探索不同模态之间的一致信息。此外,我们在提出的深度跨模态子空间聚类框架中引入了对比学习,以突出原始数据的潜在邻居几何和学习有区别的潜在(子空间)表示。通过这种方式,DCSC-CNE集成了一致的内在学习和对比邻域嵌入到一个统一的深度学习框架中。在四个实验数据集上的实验证明了所提方法的有效性。

模型记录
提出的模型框架主要分为三个部分,分别对应三项损失:
  1. 正例: 由上述操作进行对称正则化,将拉普拉斯映射损失表示为:
  2. 负例: 这里文章中只是说随机产生度归一化的拉普拉斯矩阵,也没交代\hat{A}具体是怎么构造的。笔者这里的理解是随机生成对应的一个临接矩阵\hat{A},然后计算\hat{B}之类的?(如果不对请指正)。通过随机生成损失函数k次并对其值进行平均,得到的关于负例的损失函数:
  3. 总体
    其中\xi是视图的平衡因子,\DeltaA为如下的形式: 其中,\eta用于平衡负例A^-。(由此,必须要构造\hat{A}
# 算法流程
输入:X_1, X_2, 类簇个数f, 训练次数E
输出:网络参数theta, 亲和矩阵C, 聚类结果
1. 初始化总体损失函数中的lamda_1,lambda_2, 以及学习率
2. 通过重构损失预训练各视图的编码器
3. 通过总体损失L训练编码器参数
4. 设置平衡因子和学习率重复执行2-3
5. 得到一致性表示矩阵S和各视图内在表示矩阵D^v
6. 计算得到C并基于C执行谱聚类
7. 给出聚类结果

文中并没交代S和D^v的初始化,应该是随机初始化,然后再进行参数学习的吧。。


比较喜欢第一部分中基于自表示的解耦学习,直接统一了一致性信息和视图特有信息。感觉在实操上可以直接初始化为两个不带偏置的线性层。另外就是对比的近邻嵌入,在组里的一些操作中,我们也做过近邻嵌入的约束,验证了其可行性。这种基于对比的近邻嵌入看上会对学习具有判别性的表示更加友好。

上一篇 下一篇

猜你喜欢

热点阅读