引言:首先我们需要搞清楚,什么是迁移学习,迁移学习为什么怎么红,有纳尼作用?然后弄明白如何使用,即将理论转化为实践。
小琼独家所有,请勿侵权!!!
《不搞花里胡哨,直接开干》
1》迁移学习
迁移学习就是,利用原来的先验知识,接着后续的学习,举个例子:小琼本人三年级小学生,昨天学会了使用图像的读取方式(img=cv2.imread(path)),然而今天我编程实现某个功能,需要用到读取图像这个函数,正好昨天学过,所以几天就不需要重新学习这个函数,只需要拿过来使用即可。这就是迁移学习(小琼这样子理解,不知道对不对,希望大家批评,指正)。
2》代码实现:
如何实现呢?在小琼认知里面,说白了,就是重新加载一些以前训练好的网络权重文件,然后将网络的参数送入网络中,基于上一次的网络参数重新开始训练。
代码实现:
model = self.modell.train() model_weight_path = "./save/11.pth" pre_weights = torch.load(model_weight_path) pre_dict = {k: v for k, v in pre_weights.items() if "classifier" not in k} missing_keys, unexpected_keys = model.load_state_dict(pre_dict, strict=False) print('train')
解释:需要解释吗?
#
3》结束
GAME OVER
如果理解错误,欢迎大家批评,及时纠正小琼的错误哦,真心感谢你的纠正!!!
如果小伙伴梦有疑问欢迎在评论区留言哦!!!
如果感觉不错的话!点个赞呗,不用客气!(O(∩_∩)O哈哈~)
欢迎和小伙伴梦一起学习,共同努力,加油!!!
小琼独家所有,请勿侵权,否则法律追究
0----1块,买包辣条
1-5块,买个面包
5-10块,还没花过这么大面值的钞票,不知道怎么花,请备注!!!