杏耀注册登录中国站

您好,欢迎访问我们的网站,我们将竭诚为您服务!

Tensorflow—— tf.train.AdamOptimizer

2024-09-09 12:38分类: 品茶 阅读:

 

此函数是Adam优化算法:是一个寻找全局最优点的优化算法,引入了二次方梯度校正。相比于基础SGD算法:

  1. 不容易陷于局部优点
  2. 速度更快,学习效果更为有效
  3. 纠正其他优化技术中存在的问题,如学习率消失或是高方差的参数更新导致损失函数波动较大等问题。

Adam这个名字来源于Adaptive Moment Estimation,自适应矩估计。

概率论中矩的含义是:如果一个随机变量 X 服从某个分布,X 的一阶矩是 E(X) ,也就是样本平均值, X 的二阶矩就是 E(X^2) ,也就是样本平方的平均值。

Adam算法根据损失函数对每个参数的梯度的一阶矩估计和二阶矩估计动态调整针对于每个参数的学习速率。详情请参考:

搬砖的旺财:《David Silver 增强学习》补充知识1——梯度下降法

参考文献:

【1】TensorFlow学习(四):优化器Optimizer

【2】 【Tensorflow】tf.train.AdamOptimizer函数

【3】Adam:一种随机优化方法

【4】一文看懂各种神经网络优化算法:从梯度下降到Adam方法

请大家批评指正,谢谢 ~

郑重声明:喝茶属于保健食品,不能直接替代药品使用,如果患有疾病者请遵医嘱谨慎食用,部分文章来源于网络,仅作为参考,如果网站中图片和文字侵犯了您的版权,请联系我们处理!

上一篇:加快建设现代化产业体系 厚植中国式现代化物质基础

下一篇:关于促进地热能开发利用的若干意见 国能发新能规〔2021〕43号

相关推荐

关注我们

    杏耀注册登录中国站
返回顶部

平台注册入口