keras optimizers 优化器

Keras优化器允许设置学习率、衰减等参数,可自定义实例或使用预定义快捷方式。包括SGD、RMSprop、Adagrad、Adadelta、Adam和Nadam等多种梯度下降策略,适用于不同类型的模型训练,例如RNN常选用RMSprop,Adagrad根据更新频率调整学习率,Adam结合了RMSprop和动量。
摘要由CSDN通过智能技术生成

优化器就是向模型打包传递参数,什么参数呢,就是我们训练时使用到的诸如,学习率,衰减,momentum,梯度下降得到若干种方式,用不用动量等等。你可以在一开始传入这个值,然后就一直使用这个值训练,也可以在训练时根据epoch调整参数。

optimizers的两种使用方式

一,在使用compile调用之前就生成自定义的optimizer实例,这种给用户的自由最大,但是同样的你也需要定义很多个参数:

sgd = optimizers.SGD(lr=0.001, decay=1e-6, momentum=0.9, nesterov=True)
model_mine.compile(loss = 'mean_squared_error', optimizers=sgd)

二,在complie的时候使用预定义的快捷optimizers参数:

mine_model.compile(loss='mean_squared_error', oprimizers='sgd')

对于方法一,你有若干可以填写的参数。

通用参数:梯度裁剪参数。抑制梯度爆炸,两种方式抑制:

1.所有参数的向量模长

2.每个参数的绝对值

同时,keras还提供了各种各样的梯度下降方式,比如:

#随机梯度下降
sgd = optimizers.SGD(lr
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值