杏耀注册登录中国站

您好,欢迎访问我们的网站,我们将竭诚为您服务!

tensorflow2.0Z中优化器keras.optimizers.Adam()的用法

2024-03-12 11:32分类: 茶道 阅读:

 

keras.optimizers.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-08, decay=0.0)

其中:

lr:float>=0.学习率。

beta_1:float,0 <beta <1。一般接近1。一阶矩估计的指数衰减率。

beta_2:float,0 <beta <1。一般接近1。二阶矩估计的指数衰减率。

epsilon:float>=0.模糊因子。如果None,默认为K.epsilon()。该参数是非常小的数,其为了防止在实现中除以零。

decay:浮动>=0.每次更新时学习率下降。

这个使用来解决动态梯度学习率的一种解决方案,大概思想史刚开始学习率设很大,然后根据训练的次数增多之后,动态的减小学习率。目的是使刚开始的时候能够快速的到达收敛的附近,然后在收敛附件减小学习率用来避免左右

郑重声明:喝茶属于保健食品,不能直接替代药品使用,如果患有疾病者请遵医嘱谨慎食用,部分文章来源于网络,仅作为参考,如果网站中图片和文字侵犯了您的版权,请联系我们处理!

上一篇:出国学习需要初中毕业证吗

下一篇:我把自己的抖音设置成私密账号,我喜欢的人我有关注她,但是她没关注我,那他能看到我的作品吗?

相关推荐

关注我们

    杏耀注册登录中国站
返回顶部

平台注册入口