论文阅读“Self-supervised Graph Convo

2021-09-27  本文已影响0人  掉了西红柿皮_Kee

Xia W, Wang Q, Gao Q, et al. Self-supervised Graph Convolutional Network for Multi-view Clustering[J]. IEEE Transactions on Multimedia, 2021.

摘要翻译

现有的基于图卷积网络(GCN)的多视图学习方法,尽管有初步的有希望的结果,但由于直接使用图结构作为视图描述符,可能会抑制多媒体数据的多视图学习能力。主要原因是,在实际的多媒体应用中,图形结构可能包含异常值。此外,现有方法没有利用从获得的不准确的聚类标签中学习嵌入信息,导致聚类结果较差。为此,本文提出了一种用于多视图聚类(SGCMC)的端到端自监督图卷积网络。具体来说,SGCMC通过欧拉变换将原始节点内容映射到复杂空间,为图结构数据构造了一个新的视图描述符,这不仅抑制了异常值,还揭示了数据中嵌入的非线性模式。同时,所提出的SGCMC使用聚类标签来指导潜在表示和系数矩阵的学习,然后利用系数矩阵进行后续的节点聚类。这样,聚类和表示学习就可以无缝地连接起来,目的是实现更好的聚类结果。大量的实验表明,所提出的SGCMC优于最先进的方法。

在论文的Intro部分,作者提到了在处理图结构数据时的Co-GCN。该模型(Co-GCN)首先将节点内容和图结构视为不同的视图描述符,并分别为每个视图构造最近邻图。然后为每个视图训练一个图编码器,通过聚合每个视图的潜在表示形式来获得下游任务的公共表示。
虽然Co-GCN为多视图学习提供了一个新的解决方案,但它仍然有以下缺点:

作者提出的SGCMC包括两个步骤。第一步旨在学习每个视图的潜在表示和不同视图共享的系数矩阵,将不同视图的输入映射到SGCMC正向路径forward pathway的潜在空间中。第二步实现节点聚类,并使用不准确的聚类标签来指导潜在表示和系数矩阵的学习。有了这样的策略,即使没有提供真正的label信息,SGCMC仍然可以端到端的进行训练。同时,这种方法将导致更好的系数矩阵和优越的聚类性能。

模型浅析

现有的节点聚类方法只有原始节点描述符X^{(1)}。对于多视图设置,作者利用欧拉变换(Euler principal component analysis,2013)来提取非线性特征作为一个新的视图描述符X^{(2)}。更具体地说,使用欧拉变换将一个任意向量x_p \in R^{d_v}映射到复表示z_p \in C^{d_v}上,具体的做法可以形式化为:


其中,i是单位虚数,\alpha \in R^{+}是频率值,并被调整以抑制由异常值引起的值。x_p∈X{(1)}是第p个节点的原始描述符,z_p∈Zx_p的欧拉表示。所以这里等价为:X^{(2)}=Z

【 In order to relieve the heterogeneous gap between different F^{(v)} and better align latent representation, we build a multi-view shared auto-encoder in the proposed SGCMC.】

多视图共享自动编码器由一个四层图注意自动编码器,即两层编码器和两层解码器编码器组成。除了内容的重建之外,论文还利用内部乘积解码器来重建每个视图的图结构A^{(v)}。为了便于表示,第v个视图的潜在表示可表示为:

其中,Θ_\epsilon表示多视图共享图注意编码器的可训练参数。为了强制表示F^{(v)}比原始数据更适合聚类,SGCMC在此使用了自表达学习的良好特性来获得一个视图共识系数表示。为了获得不同视图共享的良好系数矩阵,模型对第v个视图的潜在表示F^{(v)}采用自我表达运算,可以定义为 其中,C∈R^{N×N}为视图-共识系数表示。同时为了防止简单的解决方案C=I,模型在设置的时候约束C_{pp}=0。因此,SGCMC最小化了以下目标函数L_{Sub}:

为了确保SGCMC能够在不同视图之间学习一致的子空间C,模型的优化使用一致的表示约束L_{Con}来捕获嵌入在不同视图中的几何关系相似性。

当我们得到系数表示C时,诱导亲和矩阵可以通过∆=1/2(|C|+|C^{T}|)。并且通过在亲和矩阵\Delta上应用谱聚类算法得到聚类结果,也就是对应样本的伪标签。
同时,为了确保潜在表示F^{(v)}保留足够的节点内容信息和图结构信息,随后将每个视图的新表示F^{(v)}C输入图注意解码器重构原始节点内容X^{(v)}和内积解码器重构原始图结构A^{(v)}。因此,图注意解码器与编码器具有对称的结构。
论文通过优化节点内容重构损失L_{AR}和图结构重构损失L_{GR}来训练具有注意机制的图自动编码器。


一点思考:
S:欧拉变换是否可以作为一种对比学习的方式引进
作者的框架可以说是以GTAE为基础模型,通过在多视图之间共享编码和解码的权重,从而达到减少参数和共同训练的目的。同时,为了达到多视图之间聚类一致性的目的,融合了一个自表示的系数矩阵作为新学习的子空间表示然后用于谱聚类。并且为了更好的监督伪标签信息之间的分配,还单独为每个视图都构造了FCN用于分类。使用聚类所得的伪标签信息和分类的结果进行比对,最小化corss-entropy loss以监督各视图的表示学习。
整个模型看起来很庞大,但是其实作者针对的数据集并不是真正的多视图任务,只是用欧拉变换构造了另一个视图X^{(2)}=Z。在后续的对比学习的探索中,可以为多视图构造欧拉变换表示,做为数据增强。

上一篇 下一篇

猜你喜欢

热点阅读