李宏毅机器学习笔记Day5

Optimization 失败
loss不够小,gradient接近0,但不是local minima(局部最小值),或者是saddle point(鞍点),卡在critical point。
在这里插入图片描述
Saddle point 和local minima 哪一个比较常见
Saddle point比较常见
不断地测试一个network,直到它到一个critical point,由minimum ratio可以知道,其实local minima并不是很常见。
在这里插入图片描述
对抗saddle point的训练技巧(Batch和Momentum )
Batch
将训练资料分为N个batch,每次取一个batch进行计算gradient
在这里插入图片描述
Small batch和large batch
当不分batch时,更新参数要看所有的examples,但是比较稳,当batch size为1时,每次更新参数只用看一个Batch,但不稳。
但是当larger batch的size不是特别大时,计算gradient并不需要更长的时间,smaller batch需要更长的时间跑完一个epoch。
在这里插入图片描述
但是smaller batch更加有利于training。
Overfitting :小的batch差。
在这里插入图片描述
Momentum
Movement:gradient 的反方向加上前一步移动的方向
一个example,因为有momentum,所以不会卡在saddle point。
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值