60.网络训练中的超参调整策略—学习率调整2

2023-05-28  本文已影响0人  大勇任卷舒

4、inverse_time_decay

inverse_time_decay(learning_rate, global_step, decay_steps, decay_rate,
                   staircase=False, name=None)

逆时衰减,这种方式和指数型类似。如图,


5、cosine_decay
cosine_decay(learning_rate, global_step, decay_steps, alpha=0.0,
                 name=None)

余弦衰减,即按余弦函数的方式衰减学习率,如图


6、cosine_decay_restarts
cosine_decay_restarts(learning_rate, global_step, first_decay_steps,
                           t_mul=2.0, m_mul=1.0, alpha=0.0, name=None)

余弦衰减,即余弦版本的cycle策略,作用与多项式衰减中的cycle相同。区别在于余弦重启衰减会重新回到初始学习率,拉长周期,而多项式版本则会逐周期衰减。


7、linear_cosine_decay
linear_cosine_decay(learning_rate, global_step, decay_steps,
                        num_periods=0.5, alpha=0.0, beta=0.001,
                        name=None)

线性余弦衰减,主要应用于增强学习领域。


8、noisy_linear_cosine_decay

噪声线性余弦衰减,即在线性余弦衰减中加入随机噪声,增大寻优的随机性。


大数据视频推荐:
网易云课堂
CSDN
人工智能算法竞赛实战
AIops智能运维机器学习算法实战
ELK7 stack开发运维实战
PySpark机器学习从入门到精通
AIOps智能运维实战
腾讯课堂
大数据语音推荐:
ELK7 stack开发运维
企业级大数据技术应用
大数据机器学习案例之推荐系统
自然语言处理
大数据基础
人工智能:深度学习入门到精通

上一篇 下一篇

猜你喜欢

热点阅读