人生几何?

论文阅读“Deep Contrastive Learning f

2021-09-18  本文已影响0人  掉了西红柿皮_Kee

Zhang M, Zhu Y, Wu S, et al. Deep Contrastive Learning for Multi-View Network Embedding[J]. arXiv preprint arXiv:2108.08296, 2021.

摘要部分

多视图网络嵌入学习的目标是将网络中的节点映射成低维向量,并同时保留多种关系和属性信息。基于对比学习的已经在这项工作中展现出较为先进的性能。然而,绝大多数这类方法都依赖于高质量的图嵌入表示,并且很少探索在不同的图视图之间的关系。为了解决这些不足,我们设计了node-to-node Contrastive leaRning framEwork for Multi-view network Embedding(CREME),它包含两个对比目标:多视图融合信息的最大化及视图内信息最小化。前一个目标会从不同视图产生的嵌入表示中蒸馏信息,而后者可以更好地区分不同的图视图以捕捉它们之间的互补信息。具体来说,作者首先应用view encoder去产生每个视图的图视图表示,然后使用multi-view aggregator融合各视图信息。在训练中将两个对比目标统一为一个学习目标去优化。在3个真实数据集上的实验表明了模型的有效性。

写法总结:首先说明自己的任务及目标;其次引出自己要使用的方法类型,指出其不足;接着提出自己的方法,并进行简单的介绍;最后概括模型的有效性。

Intro部分

关于现有方法到自己方法的过渡,需要指出现有方法存在的问题:

Although these (contrastive learning methods) have achieved compelling performance on (multi-view network embedding), we argue that they still have two deficiencies. On the one hand, (their contrastive strategies mostly rely on graph level embedding for each view). (给出解释However, high-quality graph embedding requires an efficient injective graph readout function, which is difficult to design or optimize in practice [18]). On the other hand, (their contrastive methods do not explicitly leverage the relationships between different graph views, such as complementary information). To deal with these challenges, 针对不足我们的方法分别是怎么做的(we consider using node-to-node contrastive learning instead of the node-to-graph one, which could eliminate the process of graph embedding. Furthermore, we establish two contrastive objectives to promote multi-view information fusion and maintain the complementary information between different graph views).

相关方法

模型的主要想法是使用自监督框架去学习:
视图G_r的view encoder f_r:A_r×X->Z^r \in R^{N×d};
多视图G聚合器 g:(Z^1,Z^2,....,Z^{|R|})->Z \in R^{N×d};
其中z^{r}_i \in Z^r是指在视图G_r中每个节点的表示;
z_i \in Z是指在全局融合视图G中每个节点的表示;


整体模型精悍简小,作者真实数据集也证明了模型的实用性。在以neighbors为拓展的方法里,巧妙的使用GAT融入了不同近邻节点中的权重信息,有效的提高了节点表示的性能;同时在聚合多视图节点表示的同时引入了语义级别的注意力向量,使得视图聚合层显得更加高水平。在视图融合时可以进行借鉴。

上一篇下一篇

猜你喜欢

热点阅读