深度学习专业术语

1.BN层

解决在训练中,中间层数据分布发生变化的问题,防止梯度爆炸、梯度消失,加快训练速度。

2.Relu

在这里插入图片描述

Relu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数之间互相依存的关系,缓解了过拟合的发生。

3.Sigmod

在这里插入图片描述
在这里插入图片描述

第一,采用sigmoid函数,算激活函数时(指数运算),计算量大。而使用Relu,整个计算节省了很多。
第二,对于深层网络,sigmoid函数反向传播时,很容易出现梯度消失的情况,(sigmoid接近饱和区的时候,变化太缓慢,导数趋于0)从而无法完成深层网络的训练。

4.FPN(feature pyramid networks)—FPN网络详解

FPN主要解决的是物体检测中的多尺度问题,通过简单的网络连接改变,在基本不增加原有模型计算量的情况下,大幅度提升了小物体检测的性能。
同时利用低层特征高分辨率高层特征的高语义信息,通过融合这些不同层的特征达到预测的效果。并且预测是在每个融合后的特征层上单独进行的,效果甚佳。

模型类型示意图
通常的CNN:自底向上卷积,然后使用最后一层特征图进行预测,像SPP-Net,Fast R-CNN,Faster R-CNN就是采用这种方式,即仅采用网络最后一层的特征。缺点就是会造成检测小物体的性能急剧下降。在这里插入图片描述
图片金字塔生成特征金字塔:利用图像的各个尺度进行训练和测试,如图所示,将图像做成不同的scale,然后不同scale的图像生成对应的不同scale的特征进行预测。可以得到比较理想的结果,但是比较耗时,不太适合运用到实际当中。在这里插入图片描述
多尺度融合方式SSD(Single Shot Detector)就是采用这种多尺度特征融合的方式,没有上采样过程,即从网络不同层抽取不同尺度的特征做预测,这种方式不会增加额外的计算量。在这里插入图片描述
FPN特征金字塔:同时利用低层特征高分辨率高层特征的高语义信息,通过融合这些不同层的特征达到预测的效果。并且预测是在每个融合后的特征层上单独进行的,效果甚佳。在这里插入图片描述

5.U-Net

在这里插入图片描述

FPNU-Net
FPN出自detection任务;U-Net出自segmentation任务。
FPN的“放大”部分是直接插值放大的,没有deconvolution的filters学习参数;U-Net“放大”部分就是Decoder,需要deconvolution的filters学习参数的。
FPN及其大多数改进都是把原Feature Map和FPN的Feature Map做加法;U-Net及其大多数改进都是把原Feature Map和Decoder的Feature Map做Concatiantion,再做1x1卷积。
FPN对每一个融合的层都做detection;U-Net 只在最后一层做segmentation的pixel预测。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值