ACL2020短文阅读笔记 2021-04-18

2021-04-18  本文已影响0人  9_SooHyun

Enhancing Pre-trained Chinese Character Representation with Word-aligned Attention

1. 背景

关键词:character-level representation

中文的基本语义单元是词汇,而大多中文预训练语言模型都是character-level的表示,即基于单个字符的上下文对字符进行表示,这忽略了词汇的部分语义信息。另一方面,相关研究显示,考虑分词信息有助于语言理解

2. 思路

关键词:expand the character-level attention mechanism

对中文预训练模型的字符级注意力机制进行扩展,让预训练语言模型获得一些word-level信息,from character-level to word-level

其实考虑中文词汇级别信息也早有研究,如ERNIE【basic-level masking(word piece)+ phrase level masking(WWM style) + entity level masking】、Chinese-BERT-wwm(whole word masking)都是通过改变预训练时的masking策略,获得全新的预训练模型。这样的过程比较笨重,成本很高

本文作者则不对预训练阶段进行调整,而是对模型的微调过程进行了重新设计,将分词信息整合到微调过程中以提高性能

3. 具体设计

针对fine-tune过程,提出了Word-aligned Attention

Word-aligned Attention
上一篇 下一篇

猜你喜欢

热点阅读