深度学习篇---迁移学习

第一部分:什么是迁移学习?—— “站在巨人的肩膀上”

想象一下,你现在要学习一门新语言,比如日语。你之前已经精通了英语。你会怎么做?

  1. 从零开始:像婴儿一样,从“あいうえお”开始,背诵所有单词和语法。这非常耗时且费力。

  2. 迁移学习:利用你已有的英语知识。你会发现:

    • 很多语法概念(比如主谓宾)是相通的。

    • 一些源自英语的外来词(比如“コンピュータ”来自“Computer”)很容易记忆。

    • 你已经有了一套高效的学习方法。

你选择了第二种方法,把英语的知识“迁移”到了日语学习中,从而学得更快、更好。

在人工智能领域,迁移学习也是同样的道理:

  • 目标:解决一个新任务(比如“识别狗狗品种”)。

  • 方法:不从头开始训练一个新模型,而是利用一个在巨大数据集(如ImageNet,包含1000个类别,140万张图片)上已经训练好的、非常强大的模型,然后对它进行微调,使其适应我们的新任务。


第二部分:为什么要用迁移学习?—— 三大核心优势

  1. 节省时间和计算资源:训练一个像ResNet18这样的模型在ImageNet上达到高精度,可能需要多个GPU和数天时间。我们直接使用现成的模型,可能只需要一个普通GPU和几十分钟来完成微调。

  2. 小数据也能出奇迹:如果我们只有几千张甚至几百张狗狗的图片,从头训练一个复杂的模型几乎肯定会过拟合(模型只记住了训练集,但不会泛化到新图片)。而预训练模型已经从海量数据中学到了“如何看图片”的通用特征(如边缘、纹理、形状),我们只需要教它这些特征如何组合成特定的狗狗品种即可。

  3. 性能通常更好:预训练模型已经是一个非常强大的“特征提取器”,以其为基础进行微调,其起点和最终性能通常远高于从零开始的模型。


第三部分:以ResNet18为例,详解迁移学习过程

首先,ResNet18是什么?

ResNet(残差网络)是一个里程碑式的模型,它解决了深度神经网络“层数越深,越难训练”的问题。ResNet18就是它有18层深的一个版本。

你可以把它想象成一个拥有18级的、非常智能的特征提取流水线

  • 前几层:像人眼的视网膜,学习最基础的特征,比如边缘、角落、颜色块。这些特征对几乎所有视觉任务都是通用的。

  • 中间几层:将这些基础特征组合成更复杂的模式,比如纹理、形状(圆形、方形)、物体部件(车轮、眼睛)

  • 最后几层:学习最高级的、与特定任务高度相关的特征,比如整个狗脸、猫耳朵、汽车轮廓

关键点:在ImageNet上预训练好的ResNet18,它的前几层和中间几层学到的“通用特征提取能力”是非常宝贵的,可以直接复用到我们的新任务上。

迁移学习的步骤(以“识别狗狗品种”为例)

假设我们有一个包含120种狗狗品种的数据集,每类有200张图片。

步骤一:获取预训练模型

我们从模型库(如PyTorch的torchvision.models或TensorFlow的Keras Applications)中下载一个已经在ImageNet上训练好的ResNet18模型。这个模型原本的输出是1000个神经元,对应ImageNet的1000个类别。

步骤二:改造模型(最关键的一步)

我们需要改造这个“通才”模型,让它变成“狗狗品种识别专家”。

  1. 保留特征提取器:我们冻结(冻结的意思是,在训练过程中,这些层的参数不会被更新)ResNet18的前面大部分层(比如前17层)。因为这些层学到的通用特征(边缘、纹理等)对我们识别狗狗同样有用。

  2. 替换分类器:将模型最后的全连接层(负责1000类分类的那一层)替换成一个新的、适合我们任务的全连接层

    • 新的全连接层输入尺寸不变(承接ResNet18提取的特征)。

    • 新的全连接层输出尺寸改为 120(因为我们有120种狗狗品种)。

步骤三:微调训练

现在,我们用我们的狗狗数据集来训练这个改造过的模型。

  1. 第一阶段训练(只训练新头)

    • 我们保持被冻结的层不动,只训练我们新换上的那个全连接层

    • 这相当于在教模型:“你已经有了强大的特征提取能力,现在请你学会用这些特征来区分120种狗,而不是原来的1000类。”

    • 这个阶段学习率可以设得低一些,因为任务相对简单。

  2. 第二阶段训练(可选,精细微调)

    • 在模型初步收敛后,我们可以解冻一部分靠近顶部的卷积层(比如ResNet18的最后两个块)。

    • 然后用一个非常低的学习率来训练这些解冻的层和我们自己的全连接层。

    • 这样做是为了让模型能够稍微调整其高级特征,使其更适应“狗”这个特定领域。因为识别“哈士奇”和“柯基”所需的细微特征,可能与识别“猫”和“汽车”的特征有所不同。


第四部分:一个生动的比喻

把整个过程想象成培养一个医学专家

  • 预训练模型:一个在顶尖大学完成了所有基础学科(数学、物理、化学、生物学)教育的优秀毕业生。他拥有了强大的学习能力和知识基础

  • 我们的新任务:把他培养成一名心脏外科医生

  • 迁移学习过程

    1. 冻结底层:我们不让他回头去重新学习数学和生物这些基础知识(因为这些对所有医生都通用)。

    2. 替换顶层:我们让他去上心脏外科的专业课程(替换全连接层)。

    3. 微调:他在医院进行临床实习,在资深医师指导下,将他的基础知识与心脏外科实践相结合。一开始可能只做简单操作(第一阶段训练),熟练后,开始参与更复杂的手术,并形成自己的一些独到见解(第二阶段训练)。

最终,我们快速地得到了一位优秀的心脏外科专家,这远比从头培养一个高中生要高效得多。

总结

方面从零开始训练迁移学习
数据需求需要海量数据少量数据即可
训练时间很长非常短
计算资源要求高(多GPU)要求低(通常单GPU即可)
模型起点随机初始化(笨拙)预训练权重(聪明)
适用场景任务非常独特,与现有数据集无关最常见、最实用的场景
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Atticus-Orion

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值