论文阅读“Text Level Graph Neural Net

2022-09-27  本文已影响0人  掉了西红柿皮_Kee

Huang L, Ma D, Li S, et al. Text Level Graph Neural Network for Text Classification[C]//Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). 2019: 3444-3450.

摘要导读

由于GNN可以很好的挖掘数据中的复杂结构同时保留全局的信息,近年来已经有很多研究致力于探索GNN在文本分类上的应用。然而,以往基于GNN的方法主要面临着固定的语料库级图结构,不支持在线测试,并且存在高内存消耗的现实问题。为了解决这些问题,本文提出了一个新的基于GNN的模型,为每个输入文本建立全局参数共享的图,而不是为整个语料库建立一个单一的图。而不是为整个语料库建立单一的图。这种方法消除了单个文本和整个语料库之间的依赖性,支持在线测试,但仍然保留了全局信息。此外,通过文本中更小的窗口来构图,这不仅可以提取更多的局部特征,还可以显著减少边数量以及内存消耗。

主要的创新:
1 基于每个句子构图,而非全语料构图 -- 节约内存
2 每个图共享节点权重和节点表示 -- 使得各图(即句子)之间保留了相关性
3 使用更小的滑动窗口进行构图,减少边的数量(计算)

摘要浅析
关于利用GNN学习文本表示的示意图如下:

对于分类任务而言,整个过程主要包含三个步骤:

实验设置

上一篇 下一篇

猜你喜欢

热点阅读