修辞结构理论论文集合

2021-07-06  本文已影响0人  ltochange

收集了一下近几年用修辞结构理论做篇章结构解析的论文,并给出相应的实验结果。

做英文篇章RST解析,一般都是用RST Discourse Treebank数据集,共385篇文章,其中347篇训练集,38篇测试集。

评价指标有四个, 来自书籍The Theory and Practice of Discourse Parsing and Summarization:

Span:评价预测RST树结构的能力
Nuclearity:评价预测RST树结构和Nuclearity(核心)的能力
Relation:评价预测RST树结构和Relation的能力
Full:评价预测RST树结构和Nuclearity,以及Relation的能力

注意这里提到的实验,使用的是数据集给定的EDU基本语篇短语,而不是自己分割的

(1)A Linear-Time Bottom-Up Discourse Parser with Constraints and Post-Editing

来源: acl2014
网址:https://aclanthology.org/P14-1048.pdf
代码:https://github.com/arne-cl/feng-hirst-rst-parser

使用两个线性连CRF,贪婪自底向上的方式构建RST树。时间复杂度更小,线性于篇章中的句子个数。为了提高pipeline的准确度,增加了维特比解码的限制条件。引入post-edit(后处理),对RST树进行修正。

测试集统计:


在这里插入图片描述

考虑了18种语篇关系,在RST Discourse Treebank数据集上的实验结果:


在这里插入图片描述

38篇测试集跑完需要的时间:


在这里插入图片描述

(2) Representation Learning for Text-level Discourse Parsing

来源:acl2014
网址:https://aclanthology.org/P14-1002.pdf
代码:https://github.com/jiyfeng/DPLP

使用的特征:


在这里插入图片描述

考虑了18种语篇关系,在RST Discourse Treebank数据集上的实验结果:

在这里插入图片描述

(3)Transition-based Neural RST Parsing with Implicit Syntax Features

来源:coling2018
网址:https://aclanthology.org/C18-1047.pdf
代码:https://github.com/fajri91/NeuralRST

利用隐式语法信息辅助RST解析。

RST解析的一个例子:


在这里插入图片描述

将结构预测转化为Action序列预测:


在这里插入图片描述

考虑了18种语篇关系,在RST Discourse Treebank数据集上的实验结果(宏平均):

在这里插入图片描述
Feng and Hirst, 2014Ji and Eisenstein, 2014分别对应于本博客提到的(1)和(2)两篇论文

(4)A Top-Down Neural Architecture towards Text-Level Parsing of Discourse Rhetorical Structure

来源:ACL2020
网址:https://arxiv.org/pdf/2005.02680.pdf
代码:https://github.com/NLP-Discourse-SoochowU/t2d_discourseparser

提出一个基于encoder 和decoder 的自顶向下的神经篇章解析模型,认为自顶向下的方式可以利用全局信息,也和人们阅读的方式一致。

EN表示在RST Discourse Treebank数据集上的实验结果(宏平均),考虑了18种语篇关系:

在这里插入图片描述
第二行Ji&Eisenstein(2014)和第三行Feng&Hirst(2014)分别对应本博客提到的论文(2)和(1)。

结果相差比较大的原因是:该论文使用的是A dependency perspective on RST discourse parsing and evaluation提出的评价方式,与先前的使用的评价方式有些不同。

总之,在英文数据集上,该论文的效果不及(1)和(2)两篇论文。

更全面的统计:
https://paperswithcode.com/sota/discourse-parsing-on-rst-dt

上一篇 下一篇

猜你喜欢

热点阅读