咨询热线

400-123-4657

网站公告: 诚信为本,市场在变,诚信永远不变...
NEWS 傲世皇朝登录

service phone 400-123-4657

keras.optimizers.Adam()

点击量:147    时间:2024-04-07
更多
 

在监督学习中我们使用梯度下降法时,学习率是一个很重要的指标,因为学习率决定了学习进程的快慢(也可以看作步幅的大小)。如果学习率过大,很可能会越过最优值,反而如果学习率过小,优化的效率可能很低,导致过长的运算时间,所以学习率对于算法性能的表现十分重要。

而优化器keras.optimizers.Adam()是解决这个问题的一个方案。其大概的思想是开始的学习率设置为一个较大的值,然后根据次数的增多,动态的减小学习率,以实现效率和效果的兼得。
?

 

lr:float> = 0.学习率

beta_1:float,0 <beta <1。一般接近1。一阶矩估计的指数衰减率

beta_2:float,0 <beta <1。一般接近1。二阶矩估计的指数衰减率

epsilon:float> = 0, ?模糊因子。如果None,默认为K.epsilon( ?)。该参数是非常小的数,其为了防止在实现中除以零

decay:float> = 0, ?每次更新时学习率下降

 

在上面的示例中,我们首先创建了一个Adam优化器的实例,并通过参数设置初始学习率。然后,我们将该优化器实例传递给方法作为优化器参数,同时指定了损失函数和评估指标。最后,在模型的训练过程中,我们可以直接使用该优化器进行参数更新。

?

地址:广东省广州市天河区88号    电话:400-123-4657    传真:+86-123-4567
版权所有:Copyright © 2002-2017 傲世皇朝注册-傲世皇朝登录-招商中心 版权所有   ICP备案编号:粤IP**********

平台注册入口