机器学习100天Machine Learning & Recommendation & NLP & DL

Pytorch学习记录-torchtext和Pytorch的实例

2019-04-20  本文已影响7人  我的昵称违规了

Pytorch学习记录-torchtext和Pytorch的实例1

0. PyTorch Seq2Seq项目介绍

在完成基本的torchtext之后,找到了这个教程,《基于Pytorch和torchtext来理解和实现seq2seq模型》。
这个项目主要包括了6个子项目

  1. 使用神经网络训练Seq2Seq
  2. 使用RNN encoder-decoder训练短语表示用于统计机器翻译
  3. 使用共同学习完成NMT的堆砌和翻译
  4. 打包填充序列、掩码和推理
  5. 卷积Seq2Seq
  6. Transformer

1. 使用神经网络训练Seq2Seq

第一篇教程介绍了PyTorch与TorchText seq2seq项目的工作流程。我们将介绍使用encoder-decoder模型的seq2seq网络的基础知识,如何在PyTorch中实现这些模型,以及如何使用TorchText完成文本处理方面的所有繁重任务。该模型本身将基于使用多层LSTM的神经网络的序列到序列学习的实现。完成一个GE翻译器,这个模型是一个通用seq2seq的相关问题,比如摘要。
[基于的论文《Sequence to Sequence Learning with Neural Networks》]简书貌似不让放这样的外链,大家可以搜一下看看Google2014年的。

1.1 简介,对论文中公式的解读

最普通的seq2seq模型是encoder-decoder模型,通常使用RNN对源语进行编码,生成独立的向量。这个教程中将独立向量成为上下文向量,我们可以将上下文向量视为整个输入句子的抽象表示。然后,该向量由第二个RNN进行解码,通过一次生成一个字来学习输出目标(输出)句子。


image.png

这张图是流程图,输入德语“guten morgen”,在绿色的encoder中被编码为一个一个词,在句首和句尾增加<sos><eos>作为标签。

上一篇 下一篇

猜你喜欢

热点阅读