论文粗读“Multi-view representation m

2023-10-12  本文已影响0人  掉了西红柿皮_Kee

Li J, Lu G, Wu Z, et al. Multi-view representation model based on graph autoencoder[J]. Information Sciences, 2023, 632: 439-453.

摘要导读:

当一些数据的标签缺失的时候,图自编码器和图变分自编码器往往在节点聚类和连接划分的任务重能显示较为出色的性能。然而,现存的图表示学习忽略了数据多个模态之间的特征,将节点和图结构特征作为了一个视图。此外,大多数图自编码器只重构节点的特征矩阵或邻接矩阵,使其无法全面的挖掘隐藏的特征表示。因此,在本文中,作者提出了一个基于图自编码器的多视图表示学习模型,该模型可以同时应用全局结构拓扑、潜在的局部拓扑以及特征相关性。在后续阶段,作者添加了解码器来重构节点特征矩阵。实验结果验证了模型的有效性。

虽然论文的标题叫多视图表示模型,但其实这里是针对的是单视图数据。具体来说,通过引入不同的关系矩阵,构造不同的关系矩阵以确保全面的利用节点特征和结构信息。

模型浅析

按照笔者的理解,可以将该框架分为红色框的多个视图表示的编码过程,以及后续的解码过程。


从模型生成的角度来看,具体的实施方案中加入对抗损失是为了更好的使得模型学习的中间层表示更加贴合真实的先验分布,使得到的模型不是进行机械的特征记忆。但是笔者有个疑问,如果说是为了更好的生成样本,那么在为什么在前序的学习中不使用VGAE来进一步强化模型的生成能力?好像在实验的部分也没有针对这部分进行消融。这里的解释和创新感觉有点不太清楚(应该是我自己的问题,以后再来看看。

上一篇 下一篇

猜你喜欢

热点阅读