待更-学习笔记——keras模型编译中的loss、optimizer、metrics参数的设置与优化方法

  1. 关于这三个函数的原代码,没怎么看懂什么意思,后面看懂了再更
    原参考网址-keras中的loss、optimizer、metrics

参数的选择有两种途径:1. 使用字符串定义。 2.直接使用参数包中自带的函数

字符串定义方法如下:
如设置:sgd=SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True)
编译时:model.compile(loss=‘xx’,optimizer=sgd,metrics=‘xx’)

  1. 官方文档
    官方文档参考网址-keras documentaion

optimizer优化器:
SGD(随机梯度下降优化器,主要需要设置的参数有(Ir、momentu、decay、nesterov));
RMSprop(很适合递归神经网络,主要设置参数Ir、rho、epsilon、decay);Adagrad(主要设置参数Ir、epsilon、decay);
Adadelta(参数的设置会根据学习过程的频率进行自动调整,使用时建议将参数保留为默认值,是Adgrad的扩展,根据梯度更新的移动窗口来调整学习速度,参数有Ir、rho、epsilon、decay);
Adam(主要参数有 Ir、beta-1、beta-2、epsilon、decay、amsgrad);
Adamax主要参数有 Ir、beta-1、beta-2、epsilon、decay);
Nadam主要参数有 Ir、beta-1、beta-2、epsilon、decay、schedule-decay)、

3 写的很清楚的一个博客
关于深度学习优化器Optimizer,你需要了解这些

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值