pytorch 关于 learning rate

2018-07-04  本文已影响0人  xiaofeng112

1、查看learning rate

https://discuss.pytorch.org/t/current-learning-rate-and-cosine-annealing/8952

是从pytorch官方社区看到的解决方案。

def get_learning_rate(optimizer):

    lr=[]

    for param_group in optimizer.param_groups:

          lr +=[ param_group['lr'] ]

    return lr

也可以直接使用optimizer.param_groups[0]['lr']来查看当前的学习率。

2、设置learning rate

有两种设置learning rate 的方式:

'''

self.scheduler = optim.lr_scheduler.StepLR(self.optimizer, step_size=3, gamma=0.1)

                                                      ##根据epoch设置不同的学习率,每达到step_size,学习率为原来的 gamma

self.scheduler = optim.lr_scheduler.MultiStepLR(self.optimizer, milestones=[2, 4, 6], gamma=0.5)  

                                                        ##根据区间设置不同的学习率,每达到一个区间,学习率为原来的 gamma

'''

上一篇下一篇

猜你喜欢

热点阅读