论文阅读“Contrastive multi-view repr

2022-07-28  本文已影响0人  掉了西红柿皮_Kee

Hassani K, Khasahmadi A H. Contrastive multi-view representation learning on graphs[C]//International Conference on Machine Learning. PMLR, 2020: 4116-4126.

摘要导读

通过对比图的结构视图,本文引入了一种学习节点和图级别表示的自监督方法。与视图表示学习不相同的是,对于图结构的对比学习来讲,增加对比视图的数量或者增加对比编码的尺寸并不能提高性能。本文发现,最佳性能是通过对比一阶邻居的编码和图扩散来实现的。

Intro

GNNs需要依赖于任务标签信息来学习丰富的数据表示,而标注图数据具有一定的难度。因此,将GNNs从视觉领域迁移到图数据上存在挑战性。故而需要专门的编码器来对节点和图级别的表示进行学习。
目前图像处理领域使用的方法是对同一张图片进行数据增强,得到多个视图的表示,然后通过对比学习获得更好的表示特征。

Model
本文提出的方法通过最大化一个视图的节点表示和另一个视图的图表示之间的MI来学习节点和图表示,反之亦然。

图扩散用于生成样本图的附加结构视图,该视图与常规视图一起被子采样,并提供给两个专用的GNN,然后由一个共享的MLP来学习节点表示。然后将学习到的特征输入图池层,然后输入共享的MLP来学习图表示。鉴别器将一个视图的节点表示与另一个视图的图表示进行对比,反之亦然,并对作为训练信号的表示之间的一致性进行评分。如图所示,该方法包含以下几个组件:

  1. 数据增强机制将原始的样本图转化为一个相关联的图。这里只对图的结构进行了扩充,并没有重新初始化节点特征。接下来是一个采样器,它从两个视图中对相同的节点进行子采样,即,类似于在视觉域中的裁剪。
  2. 两个专用的图编码器GNN,每个视图对应一个,然后是一个共享的MLP,即投影部分,以学习两个视图的节点表示。
  3. 一个图池化层(readout function)加一个共享的MLP,即投影部分,以学习两个视图的图表示。
  4. 判别器使用对比的方式,将一个视图的节点表示与另外一个视图的图表示进行对比,并对其进行一致性评分。

大佬的图画的很精致,虽然有的部分看起来很平凡,但是整体的算法流程和模块设计未落俗套。值得学习!!关于邻接矩阵是数据的局部信息,而PPR那种图扩散矩阵则被看做是数据的全局信息,还有待证实。

上一篇下一篇

猜你喜欢

热点阅读