tensorflow 优化器
2019-08-07 本文已影响0人
snowpigppp
tf.train.GradientDescentOptimizer()
# 随机梯度下降
tf.train.MomentumOptimizer()
# 更新参数时利用了超参数
tf.train.AdamOptimizer()
# 自适应学习率的优化算法
# Adam 算法通过计算梯度的一阶矩估计和二 阶矩估计而为不同的参数设计独立的自适应性学习率
tf.train.GradientDescentOptimizer()
# 随机梯度下降
tf.train.MomentumOptimizer()
# 更新参数时利用了超参数
tf.train.AdamOptimizer()
# 自适应学习率的优化算法
# Adam 算法通过计算梯度的一阶矩估计和二 阶矩估计而为不同的参数设计独立的自适应性学习率