横向比较读论文

2020-10-27  本文已影响0人  小小程序员一枚

预训练语言模型的发展https://www.cnblogs.com/sandwichnlp/p/11947627.html#1840448010
一文读懂bert(原理篇)
https://blog.csdn.net/jiaowoshouzi/article/details/89073944

1.Semi-supervised sequence tagging with bidirectional language models
2.Empower Sequence Labeling with Task-Aware Neural Language Model
3.Contextual String Embeddings for Sequence Labeling

以上3篇论文都是在词向量的表征上做工作


上图是与上一篇文章对比的结果,可以看到最下面作者提出的方法在没有利用任何额外资源的情况下在Conll2003数据集上F1值达到了91.71,相比于2017年的Peter的91.93的F1值差距不是很大,但上一篇文章所用的额外资源对GPU来说是个负担。

如上图所示,“Washington”这个单词在a,b,c,d4个句子中分别代表不同的含义,文章提出的模型计算得到他们的嵌入也不同,这就说明了同一单词在不同的上下文中会有不同的嵌入,同时,用余弦距离计算与“Washington”意思相近的单词,在最右边的句子中可以看到,比如说a,“Washington”是person类,计算得到的句子中的单词也是person类

上一篇 下一篇

猜你喜欢

热点阅读