2017 · EMNLP · Supervised Learni

2018-09-24  本文已影响0人  HelloShane

2017 · EMNLP · Supervised Learning of Universal Sentence Representations from Natural Language Inference Data

想法来源:从自然语言推理的encoder中得到sentence embedding的表示。

价值:证明了NLI 迁移的可行性

方法:从NLI数据集上面训练的encoder模型,迁移到其他任务。

缺点

详细方案

  1. 基本的NLI模型结构


    -c400
  2. 使用7种主流的encoder方法


    -c150
  3. 在主流的几个任务中进行测试,其中包括多分类,二分类,相似度评测(Spearman/pearson matric),caption image retirval.

数据集
全部都在FB的Github SentEval

实验

-c500 image
上一篇下一篇

猜你喜欢

热点阅读