- 关于这三个函数的原代码,没怎么看懂什么意思,后面看懂了再更
原参考网址-keras中的loss、optimizer、metrics
参数的选择有两种途径:1. 使用字符串定义。 2.直接使用参数包中自带的函数
字符串定义方法如下:
如设置:sgd=SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True)
编译时:model.compile(loss=‘xx’,optimizer=sgd,metrics=‘xx’)
optimizer优化器:
SGD(随机梯度下降优化器,主要需要设置的参数有(Ir、momentu、decay、nesterov));
RMSprop(很适合递归神经网络,主要设置参数Ir、rho、epsilon、decay);Adagrad(主要设置参数Ir、epsilon、decay);
Adadelta(参数的设置会根据学习过程的频率进行自动调整,使用时建议将参数保留为默认值,是Adgrad的扩展,根据梯度更新的移动窗口来调整学习速度,参数有Ir、rho、epsilon、decay);
Adam(主要参数有 Ir、beta-1、beta-2、epsilon、decay、amsgrad);
Adamax主要参数有 Ir、beta-1、beta-2、epsilon、decay);
Nadam主要参数有 Ir、beta-1、beta-2、epsilon、decay、schedule-decay)、
3 写的很清楚的一个博客
关于深度学习优化器Optimizer,你需要了解这些