Tensorflow—— tf.train.AdamOptimizer
此函数是Adam优化算法:是一个寻找全局最优点的优化算法,引入了二次方梯度校正。相比于基础SGD算法:
- 不容易陷于局部优点
- 速度更快,学习效果更为有效
- 纠正其他优化技术中存在的问题,如学习率消失或是高方差的参数更新导致损失函数波动较大等问题。
Adam这个名字来源于Adaptive Moment Estimation,自适应矩估计。
概率论中矩的含义是:如果一个随机变量 服从某个分布, 的一阶矩是 ,也就是样本平均值, 的二阶矩就是 ,也就是样本平方的平均值。
Adam算法根据损失函数对每个参数的梯度的一阶矩估计和二阶矩估计动态调整针对于每个参数的学习速率。详情请参考:
搬砖的旺财:《David Silver 增强学习》补充知识1——梯度下降法参考文献:
【1】TensorFlow学习(四):优化器Optimizer
【2】 【Tensorflow】tf.train.AdamOptimizer函数
【4】一文看懂各种神经网络优化算法:从梯度下降到Adam方法
请大家批评指正,谢谢 ~
郑重声明:喝茶属于保健食品,不能直接替代药品使用,如果患有疾病者请遵医嘱谨慎食用,部分文章来源于网络,仅作为参考,如果网站中图片和文字侵犯了您的版权,请联系我们处理!
相关推荐