对优化算法的一些感想

1:今天早上阅读了on optimization methods for deep learning这篇paper,是andrew NG组的博士的一篇paper,这篇paper介绍了L-BFGS,CG(共轭梯度)和SGD算法。


2:个人感受最深的就是,我对CG没用过,用L-BFGS最多,SGD是最想用的,但是往往找不到好的模型参数。L-BFGS当样本过多的时候运行非常慢,调一次参数太慢了,SGD速度倒是很快,但是往往结果的差异性很大,没法找到那组参数。


3:在文中作者给了很多的experiment,发现L-BFGS和CG的效果是最好的,效果好指的有2个方面:达到一样的精度的时候用的时间最少;用的时间一样的多的时候,精度最高。

并且作者给出了实验中用L-BFGS的话,使用mini-batch,也就是类似SGD的训练方法,这样可以让L-BFGS速度也很快,精度也很高,同时这篇paper也给的有源代码,我好好阅读下再来说下怎么做。


4:最近在准备一组数据,看来还是可以用L-BFGS了,只需要参考一下训练的一些strategy就好了。哈哈。。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值