tensorflow2.0Z中优化器keras.optimizers.Adam()的用法
keras.optimizers.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-08, decay=0.0)
其中:
lr:float>=0.学习率。
beta_1:float,0 <beta <1。一般接近1。一阶矩估计的指数衰减率。
beta_2:float,0 <beta <1。一般接近1。二阶矩估计的指数衰减率。
epsilon:float>=0.模糊因子。如果None,默认为K.epsilon()。该参数是非常小的数,其为了防止在实现中除以零。
decay:浮动>=0.每次更新时学习率下降。
这个使用来解决动态梯度学习率的一种解决方案,大概思想史刚开始学习率设很大,然后根据训练的次数增多之后,动态的减小学习率。目的是使刚开始的时候能够快速的到达收敛的附近,然后在收敛附件减小学习率用来避免左右
郑重声明:喝茶属于保健食品,不能直接替代药品使用,如果患有疾病者请遵医嘱谨慎食用,部分文章来源于网络,仅作为参考,如果网站中图片和文字侵犯了您的版权,请联系我们处理!
相关推荐
最新更新
猜你喜欢
关注我们
