点击上方“算法数据侠”,选择“星标”公众号 第一时间获取最新推文与资源分享 小侠客们周末愉快呀,我是oubahe。今天为大家带来的是一个超实用的“好技巧”。在实际的项目模型中,我们往往都会涉及学习率调整的问题。一般来说,深度模型在前期训练过程中,可以将学习率设置较大一些,这样让模型快速学习拟合数据;但由于模型学习率固定,到模型学习后期,学习率较大导致跳过全局最优点,最后我们得到的次优结果与最优结果差距较大。所以,熟悉的小侠客应该都做过这样的工作,让模型学习率在模型训练过程中不断衰减或者自定义动态学习率来避免模型在训练过程中无法找到全局最优点。 今天我们来一起看看如何可以在Tensorflow最新的2.0版本中花式调整我们模型的学习率,使得模型训练得更快更好。来吧,展示~ 01 — LearningRateScheduler 加快学习算法的办法可以随着时间慢慢减小学习率,这样的学习策略称之为学习率衰减策略(Learning R