使用迁移学习后使用微调再次提高模型训练的准确率
1、微调
所谓微调:冻结模型库的底部的卷积层,共同训练新添加的分类器层和顶部部分卷积层。这允许我们“微调”基础模型中的高阶特征表示,以使它们与特定任务更相关。
只有分类器已经训练好了,才能微调卷积基的顶部卷积层。
如果有没有这样的话,刚开始的训练误差很大,微调之前这
些卷积层学到的表示会被破坏掉。
2、微调步骤
一、在预训练卷积基上添加自定义层
二、冻结卷积基所有层
三、训练添加的分类层
四、解冻卷积基的一部分层
五、联合训练解冻的卷积层和添加的自定义层
3、在jupyter上运行的解释
这是使用迁移学习后,进行自定义训练
冻结一些层,训练某一部分层,但要保证自定义训练完了再开始冻结
可以看出直接进行冻结后的训练,准确率会有一定的提高
4、总结
卷积层:底层纹理等通用特征
顶层抽象的特征与分类任务密切相关