PyTorch torch.optim 传入两个网络参数
2019-11-15 本文已影响0人
人生一场梦163
CLASS torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0, amsgrad=False)
以Adam优化器为例,其params定义如下:
- params (iterable) – iterable of parameters to optimize or dicts defining parameter groups
所以我们传入的是一个迭代器,可以通过tertools.chain将两个网络参数连接起来。
import itertools
......
optimizer = torch.optim.Adam(itretools.chain(net1.parameters(), net2.parameters()), 0.001, weight_decay = 1e-5)