关于深度学习学习率调整的心得【无病呻吟】

最近在研究姿态估计方面的内容。这个task数据量比较大,实验室的四路TITAN XP也只能用小batch运行,
并且要跑好几天(我在想原文是不是都是四路特斯拉跑的)。

为了克服设备的困难,最近关于学习率方面有一些心得。
我的调参哲学大概是先给一个特别大的学习率(大到模型只要不崩就行),跑一百多epoch,看一下大概什么位置比较好;
(跑的过程中可以存下效果top5的模型,用作后续的pre-train)
有了大概的了解之后,将学习率逐步进行decay,以对模型进行微调。

模型学习要先得到一个大方向,大方向对了才能谈小节,人生又何尝不是如此。
在此与猿友共勉,愿大家都能找到适合自己的那个gradient。

  • 4
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值