场景文本检测&识别学习 day08(无监督的Loss Function、代理任务、特征金字塔)

无监督的Loss Function(无监督的目标函数)

  • 根据有无标签,可以将模型的学习方法分为:无监督、有监督两种。而自监督是无监督的一种
  • 无监督的目标函数可以分为以下几种:
    1. 生成式网络的做法,衡量模型的输出和固定的目标之间的差距,主要考虑输入数据是怎么分布的,即 “给定Y,如何生成X”。如auto-encoder:输入一张干扰过的图,通过编码器-解码器,然后得出一张还原后的图,通过对比原图和生成的还原后的图之间的差异
    2. 判别式网络的做法,衡量模型的输出和固定的目标之间的差异,主要考虑输入和输出的映射关系,不考虑输入数据是怎么分布的,即 ”给定X,预测Y“ 。如eight positions:将一张输入图片分成九宫格,按顺序标好序号,并给中间的5号格,然后随机在剩下的格中挑一个,预测出这个随机的格是在中间格的哪一个方位
    3. 对比学习的做法:在一个特征空间中,衡量各个样本对之间的相似性,从而达到,相似的物体之间的特征尽量接近,不相似的物体之间的特征尽量远,如有三张图片,两张人和一张狗,对比学习只需要区分出两张人的图片是相似的,一张狗的图片是单独的即可,而不需要区分出它们分别是人和狗。对比学习和生成式网络、判别式网络的区别:后两者的目标都是固定的目标(找到一个能很好表示原图像,或输入图像的特征空间,这个特征空间是固定的),但是对比学习的目标是在训练过程中不断改变。(不断优化特征空间,来让正样本对更加接近,负样本对更加远离)
    4. 对抗学习的做法:衡量两个概率分布之间的差异,即生成数据分布和真实数据分布的差异。对抗学习包含两个模型:生成模型和判别模型。生成模型的任务是尽可能生成接近真实数据分布的数据样本,判别模型的任务是区分输入的样本是真是数据集还是来自生成模型的。对抗学习可以用来做无监督数据生成,特征学习。

代理任务

在这里插入图片描述

  • 如果有一个输入X,通过一个模型,得到Y
  • 那么在有监督学习中,我们是通过真实值GT和Y进行比较,并通过一个目标函数(Loss Function)来衡量这个比较的结果
  • 在无监督学习中,由于没有GT的存在,那么就需要自己造一个GT。主要是通过代理任务来生成一个自监督的信号,用来充当GT,之后仍然是将GT和Y进行比较,并通过一个目标函数(Loss Function)来衡量这个比较的结果

特征金字塔、图像金字塔

在这里插入图片描述

  • (a) 是图像金字塔,通过将输入图像缩放到不同的尺度来构成了图像金字塔。然后将这些不同不同尺度的图像输入到模型中(可以共享权重,也可以独立权重),最后得到每个尺度的预测结果。图像金字塔的问题是:推理速度慢,因为每张输入图像都要推理很多遍
  • (b) 是Faster R-CNN、YOLO算法的网络结构,只使用CNN的最后一层的结果用作预测。这个结构的问题在于:对小尺寸物体的预测效果不理想,因为小尺寸的物体特征回随着卷积层的加深快速流失,到最后一层只有很少的特征支持小尺寸物体的预测了。
  • © 是SSD采用的结构,使用不同层的Feature Map来预测,但是SSD只是单纯的从每一层都输出一个预测结果,并没有进行不同层之间的特征复用和特征融合。
  • (d) 是U-Net的结构,虽然使用了不同层之间的特征复用和特征融合,但是没有使用多层预测,仍然只是在模型的最后一层进行了预测。
    在这里插入图片描述
  • 上图为特征金字塔网络FPN的结构,跟U-Net不相同的是,FPN在每一层都进行了输出预测。
  • 7
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

丿罗小黑

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值