【论文学习】《Cross-lingual Language Mo

2021-09-12  本文已影响0人  三方斜阳

主题:

  1. 最近的研究证明了生成性预训练对英语自然语言理解的有效性,我们讲这种方法扩展到多语言,并且展现了跨语言预训练的有效性
  2. 两种方法 for cross-lingual language models(XLMs):
  1. result:
  1. contribution:

几种语言模型:

CLM:

MLM:

image.png

TLM:

跨语言模型任务:

Cross-lingual classification:

Unsupervised Machine Translation:

Supervised Machine Translation:

Low-resource language modeling:

Unsupervised cross-lingual word embeddings:

亮点:

  1. 没有提出新的算法模型,只是将几种模型糅合,取得了很好的效果,偏工程
上一篇下一篇

猜你喜欢

热点阅读