如何不利用外部知识来提升NER效果?
2019-06-05 本文已影响0人
全村希望gone
这是一个没有完美答案的题目,因为大家都还在不断地创新,可能会遇到一个瓶颈,然后提出一种新的模型,瓶颈消失,在此模型上继续改进,又遇到新的瓶颈。。。循环往复。
现在很多论文都在用外部知识(例如词性、词向量、部首、笔画等)来辅助基于字符的命名实体识别,基于字符比基于字的NER好处在于会极大减少OOV情况,但是缺点在于基于字符的NER只是逐个字地进行标注,无法利用词语的信息,所以ACL2018的一篇论文Chinese NER Using Lattice LSTM就加入了词向量来训练模型,取得了sota performance。另一篇论文Glyce: Glyph-vectors for Chinese Character
Representations则利用了把多种字体的字形信息融入到字向量中,取得了sota performance。可是融入外部知识的做法总觉得有些不够优雅,而且看起来很复杂,难道不用外部知识就不能提升性能吗?自注意力和聚焦法我都试了,可是几乎没有提升。