Keras框架优化器参数

Keras后端基于Tensorflow、Theano以及CNTK编写而成,Keras中文文档参考
http://keras-cn.readthedocs.io/en/latest/

Keras序贯模型搭建神经网络模型的一般步骤:

1. 从keras.models库引入Sequential类
2. 定义Sequential类的对象model
3. 向model里add每一层(隐藏层,激活层等)
4. 逐层加完之后对model进行compile:编译模型时必须指明损失函数和优化器,如果你需要的话,也可以自己定制损失函数。Keras里也封装好了很多优化器和损失函数。
5. 利用以上定义好的model和处理好的数据(主要是维度)fit建模:可以设置每批训练数batch和训练周期epoch
6. 对训练好的model进行evaluate和迭代修正
7. 利用训练好的model进行predict

第4步里可选的优化器:

1.) 标准的梯度下降法、SGD、mini-batch GD

wt=wt1+ηwf(wt1)

SGD较慢且易陷入鞍点,局部最优

2.) Momentum

{vt=γvt1+ηwf(wt1)wt=wt1vt

γ 一般取0.9

3.) NAG

{vt=γvt1+ηwf(wt1γvt1)wt=wt1vt

NAG是对Momentum的改进

4.) Adagrad

Gt=Gt1+wf(wt1)2wt=wt1ηGt1+εwf(wt1)

ε 一般取1e-8,Adagrad对Momentum的学习率进行了自适应改进

5.) RMSprop

Gt=γGt1+(1γ)wf(wt1)2wt=wt1ηGt1+εwf(wt1)

γ 一般取0.9,RMSprop是对Adagrad里 Gt 迭代取值的改进

6.) Adadelta

Gt=γGt1+(1γ)wf(wt1)2Et=γEt1+(1γ)(Δwt)2Δwt=Et1+εGt+εwf(wt)wt=wt1+Δwt1

γ 一般取0.9

7.) Adam

mt=β1mt1+(1β1)wf(wt)vt=β2vt1+(1β2)wf(wt)2mˆt=mt1βt1,vˆt=vt1βt2wt=wt1ηmˆtvˆt+ε

β1 一般取0.9, β2 一般取0.999

import numpy as np
from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense
from keras.optimizers import Adam
...
# 定义优化器
adam = Adam(lr=1e-4)
# 定义优化器,loss function,训练过程中计算准确率
model.compile(optimizer=adam,loss='categorical_crossentropy',metrics=['accuracy'])
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值