Andrew-Coursera-DL课程-笔记part2-2(Optimization algorithms)

  1. Mini-batch gradient descent
  2. Understanding mini-batch gradient descent
    mini-batch大小为1时,即为SGD

    数据集小于2000,使用batch。大数据集时,mini-batch大小选择,64,128,256,512等2的指数级。
  3. Exponentially weight averages
    加权的移动平均法,选取各时期权重数值为递减指数数列的均值方法。指数平滑法解决了移动平均法需要几个观测值和不考虑t—n前时期数据的缺点,通过某种平均方式,消除历史统计序列中的随机波动,找出其中主要的发展趋势。
    指数加权平均: vt=βvt1+(1β)θt
    bias correction: vt=vt1βt
    窗口: 11β

    当beta设置为0.98时比0.9更平滑,受历史平均值影响更大.
    当beta设置为0.5时,标识时间窗口变为2.
    0.9^10近似于0.35,so,对于指数加权平均,beta=0.9时,只有近10天的数据会产生影响,因为超过10天的数据会产生小于1/3的影响
    0.98^50近似于0.36,对于beta=0.98时,近50天的数据都会产生影响.

  4. Understanding exponetially weighted averages

  5. Bias correction in exponentially weighted averages
    bias correction: vt=vt1βt
  6. Gradient descent with momentum
    动量法,思想是前面的指数加权平均,梯度作为当前值,动量作为历史值

  7. RMSprop
  8. Adm optimization algorithm

  9. Learning rate decay

  10. The problem of local optimal

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值