迁移学习系列--深度迁移学习

深度迁移学习中比较常用的策略是预训练-微调
但是预训练方法有其先天的不足:无法直接处理训练数据和测试数据分布不同的情况,同时微调时目标数据需要标签(无监督域适应场景不适合)。因此需要探索新的迁移模式,以广泛适应新的场景。
1. 数据分布自适应的深度迁移学习方法
1.1 边缘分布自适应
例如,在特征层后面加入最大均值差异(MMD),用来计算源域与目标域之间的差异,并将其加入网络的损失找那个进行训练,促使网络学习域不变特征。另有方法采用多核MMD度量,也取得显著效果。
1.2 条件、联合与动态分布自适应
局部MMD距离,对源域与目标域中每个类别进行显示对齐。
局部在这里插入图片描述
2. 结构自适应的深度迁移学习方法
2.1 批归一化的迁移学习方法
批归一化已经广泛用于深度学习模型中,能够加速模型收敛速度,防治梯度爆炸或消失。批归一化处理对输入数据进行归一化,使其变化为0均值和1方差,减少了批次间的数据分布差异。减少数据分布差异也是迁移学习的有效方法,如何将BN思想用于迁移学习中?
自适应的批归一化(AdaBN):首先对源域数据上用BN操作;然后,在新的数据领域(目标域)重新计算BN统计量。AdaBN相当于对不同领域数据进行归一化处理,大大减少数据分布差异。
2.2 基于多表示学习的迁移网络结构
大多数领域自适应的方法使用单一的结构将两个领域的数据提取到同一特征空间,在这个特征空间下使用不同方式(对抗,MMD)衡量两个领域分布差异,最小化分布差异实现分布对齐。但是单一结构提取的特征表示可能仅包含部分信息,所以在单一结构提取的特征上对齐特征也只能关注部分信息。为了全面表示原始数据,需要提取多种表示。
3. 知识蒸馏
核心思想:把一个训练好的复杂模型中的知识“提纯”,用到另一个小模型中。知识蒸馏网络训练损失一半有两部分组成:第一部分,学生网络训练误差;第二部分,学生网络与教师网络的接近程度。

  • 0
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
垃圾分类 基于深度学习 迁移学习 智能垃圾桶 树莓派4B 深度学习(Deep Learning,简称DL)是机器学习(Machine Learning,简称ML)领域中一个新的研究方向,其目标是让机器能够像人一样具有分析学习能力,识别文字、图像和声音等数据。深度学习通过学习样本数据的内在规律和表示层次,使机器能够模仿视听和思考等人类活动,从而解决复杂的模式识别难题。 深度学习的核心是神经网络,它由若干个层次构成,每个层次包含若干个神经元。神经元接收上一层次神经元的输出作为输入,通过加权和转换后输出到下一层次神经元,最终生成模型的输出结果。神经网络之间的权值和偏置是神经网络的参数,决定了输入值和输出值之间的关系。 深度学习的训练过程通常涉及反向传播算法,该算法用于优化网络参数,使神经网络能够更好地适应数据。训练数据被输入到神经网络中,通过前向传播算法将数据从输入层传递到输出层,然后计算网络输出结果与实际标签之间的差异,即损失函数。通过反向传播算法,网络参数会被调整以减小损失函数值,直到误差达到一定的阈值为止。 深度学习中还包含两种主要的神经网络类型:卷积神经网络(Convolutional Neural Networks,简称CNN)和循环神经网络(Recurrent Neural Networks,简称RNN)。卷积神经网络特别擅长处理图像数据,通过逐层卷积和池化操作,逐步提取图像中的高级特征。循环神经网络则适用于处理序列数据,如文本或时间序列数据,通过捕捉序列中的依赖关系来生成模型输出。 深度学习在许多领域都取得了显著的成果,包括计算机视觉及图像识别、自然语言处理、语音识别及生成、推荐系统、游戏开发、医学影像识别、金融风控、智能制造、购物领域、基因组学等。随着技术的不断发展,深度学习将在更多领域展现出其潜力。 在未来,深度学习可能会面临一些研究热点和挑战,如自监督学习、小样本学习、联邦学习、自动机器学习、多模态学习、自适应学习、量子机器学习等。这些研究方向将推动深度学习技术的进一步发展和应用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值