keras.optimizers.SGD(lr=0.01, momentum=0.0, decay=0.0, nesterov=False)
-lr
: 学习率
- momentum
: 梯度下降中一种常用的加速技术,控制参数更新时每次的下降幅度
- decay
:每次更新时学习率衰减量
- nesterov
:是否应用Nesterov momentum
keras.optimizers.SGD(lr=0.01, momentum=0.0, decay=0.0, nesterov=False)
-lr
: 学习率
- momentum
: 梯度下降中一种常用的加速技术,控制参数更新时每次的下降幅度
- decay
:每次更新时学习率衰减量
- nesterov
:是否应用Nesterov momentum