李宏毅机器学习笔记Day6——神经网络训练技术

训练技术:Adaptive Learning Rate
当parameters在critical point 附近时,Loss已经很小时(trainings stuck),gradient并没有很小。
在这里插入图片描述
Learning rate 不能是one-size-fits-all,不同的参数需要不同的Learning rate,引入Parameter dependent。
在这里插入图片描述
Root mean square :用在Adagrad里。坡度小,σ小,learning rate大,step大,坡度大,σ大,learning rate小,step小,从而可以自动调整learning rate 的大小。
在这里插入图片描述
当error surface非常复杂时,同一个参数也有可能需要调整learning rate
在这里插入图片描述
方法:RMSProp
Adam:RMSProp+Momentum
在这里插入图片描述
Learning rate scheduling
加上Learning rate decay
在这里插入图片描述
Warm up
在这里插入图片描述
Optimization的总结
对gradient descent进行了改正
在这里插入图片描述
Classification
把class用one-hot vector表示,用softmax将output 调到0到1之间,output与y_hat越接近越好
在这里插入图片描述
在这里插入图片描述
Loss of classification
用cross-entropy
在这里插入图片描述
可以改变loss function,降低error surface的复杂度,从而降低难度。
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值