论文阅读“Consistent Multiple Graph E

2023-03-13  本文已影响0人  掉了西红柿皮_Kee

Wang Y, Chang D, Fu Z, et al. Consistent multiple graph embedding for multi-view clustering[J]. IEEE Transactions on Multimedia, 2021.

摘要导读

基于图的多视图聚类旨在在多个视图中获得数据的划分,在近年来受到了广泛关注。虽然已经为基于图的多视图聚类做出了很大的努力,但是将各个视图的特征融合到一起以学习用于聚类的共同表示仍然是具有挑战性的。本文提出了一种新颖的一致性多图嵌入聚类框架(CMGEC)。具体来说,设计了一个多图自编码器(M-GAE),使用多图注意力融合编码器灵活地编码多视图数据的互补信息。为了引导学习到的共同表示维持每个视图中邻近特征的相似性,引入了多视图互信息最大化模块(MMIM)。此外,设计了一个图融合网络(GFN),用于探索不同视图的图之间的关系,并提供M-GAE所需的共识图。通过联合训练这些模型,可以获得共同表示,该表示编码了更多的多视图互补信息,并更全面地描述了数据。

模型浅析

提出的CMGEC,主要由三个部分组成 : Multiple Graph Auto-Encoder(M-GAE), Multi-view Mutual Information Maximization module (MMIM), and Graph Fusion Network (GFN).

  1. Multi-Graph Attention Fusion Encoder
    每个视图都对应一个GCN层,以\mathcal{X}^v, A^v作为输入得到第一层的Z^{(v)}_{(1)}的表示: 为了自适应的融合不同视图的样本,通过MLP层引入了一个度量视图重要性的系数矩阵W_a。由此,由multi-graph attention fusion layer获得的公共表示的操作如下: 从操作可以看出,各视图之间共享了同一个MLP层,得到融合的Z_{(2)}。在此基础上,又叠加了一层GCN用来获取最终的共有表示Z A^*是由GFN得到的共识图,\tilde{D}^*_{ii}=\sum_j\tilde{A}^*_{ij}
  2. View-Specific Graph Decoders
    用共有表示Z来解码每个视图的图表示: W^{(v)}是第v个视图的可学习矩阵。
  3. Reconstruction Loss
    计算原始A^{(v)}\tilde{A}^{(v)}之间的差异性:

第一次看到用MLP进行图融合的,感觉很有意思。其中的一些小trick还是很有趣,比如说参数共享的multi-graph attention fusion layer。

上一篇 下一篇

猜你喜欢

热点阅读