PyTorch torch.optim 传入两个网络参数

2019-11-15  本文已影响0人  人生一场梦163
CLASS torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0, amsgrad=False)

以Adam优化器为例,其params定义如下:

所以我们传入的是一个迭代器,可以通过tertools.chain将两个网络参数连接起来。

import itertools
......
optimizer = torch.optim.Adam(itretools.chain(net1.parameters(), net2.parameters()), 0.001, weight_decay = 1e-5)
上一篇 下一篇

猜你喜欢

热点阅读