今天无意间做实验发现:
大的学习率(lr)对应的训练轮次(epoch)要小,如果epoch过大,会出现过拟合现象。
小的lr,其epoch要大。
学习率就是这个调整过程中的“步伐”大小,即参数更新的量。
1. 学习率和训练轮次的关系
-
大的学习率(High Learning Rate):
- 快速收敛:大的学习率会使模型参数更新得更快
大的学习率(lr)对应的训练轮次(epoch)要小,如果epoch过大,会出现过拟合现象。
小的lr,其epoch要大。
学习率就是这个调整过程中的“步伐”大小,即参数更新的量。
大的学习率(High Learning Rate):