- 博客(1)
- 收藏
- 关注
原创 深度学习中的训练调参
很久很久没有写过博客了。 去年春夏接触到深度学习,直到现在,也有大半年了,但是关于训练调节参数一直没有很好的把握,刚好同组有调参大神,就向她请教了下:本着一个大原则:学习率尽量调大,只要不发散就行。1、用什么:Adam和SGD Adam:比较傻瓜式,可以自动调节学习率(初始学习率也不能太大,只是施加一个惯性?)。不追求极致的和初学者能用它把模型训练到一个比较满意的效
2018-01-19 18:10:38 2842 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人