使用迁移学习后使用微调再次提高模型训练的准确率

115 篇文章 63 订阅 ¥89.90 ¥99.00
本文介绍了如何通过微调在使用迁移学习后进一步提高模型的训练准确率。首先,微调涉及冻结预训练模型的底部卷积层,训练新添加的分类器层和部分顶部卷积层。接着,详细阐述了微调的步骤,包括添加自定义层、冻结层、训练分类器、解冻部分卷积层并联合训练。在Jupyter环境中运行的示例显示,这种微调方法能有效提升模型的准确率,特别是对于顶层的抽象特征与分类任务关联性更强的卷积层。
摘要由CSDN通过智能技术生成

使用迁移学习后使用微调再次提高模型训练的准确率

1、微调

所谓微调:冻结模型库的底部的卷积层,共同训练新添加的分类器层和顶部部分卷积层。这允许我们“微调”基础模型中的高阶特征表示,以使它们与特定任务更相关。

只有分类器已经训练好了,才能微调卷积基的顶部卷积层。
如果有没有这样的话,刚开始的训练误差很大,微调之前这
些卷积层学到的表示会被破坏掉。

2、微调步骤

一、在预训练卷积基上添加自定义层
二、冻结卷积基所有层
三、训练添加的分类层
四、解冻卷积基的一部分层
五、联合训练解冻的卷积层和添加的自定义层

3、在jupyter上运行的解释

这是使用迁移学习后,进行自定义训练
在这里插入图片描述
冻结一些层,训练某一部分层,但要保证自定义训练完了再开始冻结
在这里插入图片描述
可以看出直接进行冻结后的训练,准确率会有一定的提高
在这里插入图片描述

4、总结

卷积层:底层纹理等通用特征
顶层抽象的特征与分类任务密切相关

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

@@南风

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值