NLP论文收藏

2019-10-28  本文已影响0人  乔咏田

序列标注

1、Bidirectional LSTM-CRF Models for Sequence Tagging

时间:2015年,链接:https://arxiv.org/pdf/1508.01991.pdf

预训练模型

1、BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

时间:2019年;链接:https://arxiv.org/pdf/1810.04805.pdf

NLP任务

序列标注

命名实体识别

1、Named Entity Recognition with Bidirectional LSTM-CNNs

时间:2016年,链接:https://arxiv.org/pdf/1511.08308.pdf

上一篇 下一篇

猜你喜欢

热点阅读