pytorch0.4.1报错Padding_idx must b

2018-08-16  本文已影响0人  Re0
self.embedding = nn.Embedding(self.vocab_size + 2, self.embedding_dim, padding_idx=self.vocab_size + 1)
self.embedding.weight = nn.Parameter(opt.embeddings)

pytorch0.3.1时这样设置embedding,没有问题
但0.4.1版本nn.embedding函数有改变,可以直接将embeddings作为参数,这样调用:

self.embedding = nn.Embedding(self.vocab_size, self.embedding_dim, padding_idx=self.vocab_size-1, _weight=opt.embeddings)

可以看做将vocab的最后一个词用zero向量padding

上一篇 下一篇

猜你喜欢

热点阅读