other

语义相似计算资料

2017-08-11  本文已影响0人  风驰电掣一瓜牛

文章

LDA

DSSM

SimNet

CLSM

CNN

评测比赛

工具

PPT

论文

Convolutional Neural Networks for Sentence Classification (EMNLP 2014)

n*k表示句子(k是词向量维度) -> 多channel卷积层 -> max-over-time pooling -> 全连接

Neural Machine Translation by Jointly Learning to Align and Translate (arxiv 2014, ICLR 2015)

最早的一篇,应用在翻译上,动机是告诉decoder现在翻译哪一部分,因为大体上两个句子语义上有对应关系 soft alignment?

采用biRNN

Encoding Source Language with Convolutional Neural Network for Machine Translation (ACL 2015)

tagCNN & inCNN

A Hierarchical Neural Autoencoder for Paragraphs and Documents (ACL 2015) note!!

LSTM auto-encoder + Attention

分层结构,捕捉句子组成成分或结构

中间层有句子状态表示,句子向量?

A Neural Attention Model for Abstractive Sentence Summarization (EMNLP 2015)
Abstractive Sentence Summarization with Attentive Recurrent Neural Networks (NAACL 2016)

姊妹篇, Facebook团队

两篇paper的模型框架都是seq2seq+attention,最大的区别在于选择encoder和decoder的模型,第一篇的模型偏容易一些,第二篇用了rnn来做。论文解读

Teaching Machines to Read and Comprehend (NIPS 2015)

Google DeepMind团队

有监督训练,两个attention模型: Attentive Reader 和 Impatient Reader,后者每个token都和query构成一组输入,相当于反复读取,逐渐理解文章

Skip-Thought Vectors(NIPS 2015) note!!

无监督,句子encoder

通过1万多本书中连续的句子来训练

借鉴了word2vec中skip-gram模型,通过一句话来预测这句话的上一句和下一句

采用了GRU-RNN作为encoder和decoder,encoder部分的最后一个词的hidden state作为decoder的输入来生成词。这里用的是最简单的网络结构,并没有考虑复杂的多层网络、双向网络等提升效果。decoder部分也只是一个考虑了encoder last hidden state的语言模型,并无其他特殊之处,只是有两个decoder,是一个one maps two的情况,但计算方法一样。论文解读

Deep Learning for Semantic Similarity(实验报告 2015)

有监督,衡量两个句子的相似性

实验数据:SemEval-2015 Task 2, RNN效果最好

Learning Natural Language Inference using Bidirectional LSTM model and Inner-Attention

Context Aware Document Embedding (arxiv 2017)

CNN+GRU STS任务上取得与doc2vec相似的效果,但是更有效率,不需要大量外部语料?一种加强的idf权重,可以捕捉文档子主题层的关键词

A Structured Self-attentive Sentence Embedding (ICLR 2017) note!!

双向LSTM+Attention

三个实验:预测年龄,情感分析,文本蕴含

提出了一种句子表示学习的”internal attention”的方式,并且采用了惩罚项来保证从不同方面来学习attention矩阵,使每个维度的attention向量的相关性降低,并采用了可视化方式来说明模型效果, 可以应用到各种序列化学习的问题当中。论文解读

[Efficient Summarization with Read-Again and Copy Mechanism] (arxiv 2016, ICLR 2017)

生成式摘要任务 论文解读

两个问题:

两个改进:

Learning Natural Language Inference using Bidirectional LSTM model and Inner-Attention (arxiv 2016)

有监督,识别文本蕴含,biLSTM average pooling, Inner-Attention
论文解读

上一篇 下一篇

猜你喜欢

热点阅读