Deep Contextualized Entity Repre

2020-11-27  本文已影响0人  小小程序员一枚

题目:LUKE: Deep Contextualized Entity Representations with
Entity-aware Self-attention(EMNLP 2020)
摘要:作者提出的模型是在BERT的MLM的基础上使用一种新的预训练任务来训练的。这项任务涉及到预测从维基百科的大型实体注释语料库中检索出来的随机隐藏的单词和实体。作者还提出了一种实体感知的自我注意机制,它是transformer中的自我注意机制的扩展,并在计算注意力分数时考虑了token(单词或实体)的类型。
介绍(主要贡献):
1.作者提出了一种新的专门用于处理与实体相关的任务的上下文表示方法LUKE(Language Understanding with Knowledge-based Embeddings)。LUKE利用从维基百科中获得的大量实体注释语料库,预测随机mask的单词和实体。
2.作者提出了一种实体感知的自我注意机制,它是对transformer原有的注意机制的有效扩展,该机制在计算注意力分数时考虑到了标记(单词或实体)的类型。
3.LUKE是以Roberta作为基础的预训练模型,并通过同时优化MLM的目标和我们提出的任务进行模型的预训练。并在5个流行的数据集上获得了最先进的结果。
模型


1.模型的输入表示

2.实体感知的self-attention



3.预训练任务

实验(主要关注命名实体识别的实验,数据集:CoNLL-2003):


消融实验

结论
在本文中,作者提出了一种新的基于transformer的预先训练的单词和实体的上下文表示LUKE。LUKE使用一种新的实体感知自我注意机制,实验证明了它在各种实体相关任务中的有效性。未来的工作包括将LUKE应用于特定领域的任务,例如生物医学和法律领域的任务。

上一篇 下一篇

猜你喜欢

热点阅读