1.什么是微调?
这个东西其实和模型迁移是相互连接在一起的,就是你将本身类似的一个东西拿到这里拿过来,在这里再稍微训练一下接着使用了,这里稍微再训练一下就是微调了。
2.为什么微调是有效的?
2.1浅层的网络更适合共用
这里我们注意这样的一个问题,在一个模型当中,我们实际上大约可以从浅到深笼统的将其分成大约三个部分:1.特征提取(1.1浅层提取细节上的信息1.2深层上提取总体的信息)2.结果输出。
这里我们可以看出来浅层网络其实在类似的学习模型中,是比较类似的,所以浅层网络是比较可以共用的。
2.2训练时,不同层之间的训练率差异
我们可以因为梯度会越乘算越小,所以我们在计算的过程中会有梯度消失的现象,虽然我们可以使用ResNet来进行优化,但是实际上浅层网络(在forward的过程中他是浅层,但是在backward的过程中就会变成深层)训练起来会比较慢。
2.3综合起来
本身我们就是想改变深层网络的参数情况,保留浅层网络的参数,训练的特性正好帮我们完成了这件事,所以,非常好。