-
- 什么是空洞卷积?
1:提出空洞卷积的背景引用
FCN网络,在像素级预测问题中(比如语义分割),图像输入到网络中,FCN先像传统的CNN网络一样对图像做卷积以及池化计算,降低特征图尺寸的同时增大感受野。然而,由于图像分割是一种像素级的预测问题,会要求最终的输出尺寸应该与原始的输入图像保持一致。这里,一般会使用转置卷积(Transpose Convolution)进行上采样(Upsample)。
在这种像素级预测问题中,就有两个关键步骤:首先是使用pooling减小图像尺寸增大感受野,其次是使用Upsampling扩大图像尺寸。但是,使用pooling进行下采样会导致一个非常严重的缺陷:图像细节信息被丢失,小物体信息将无法被重建,就比如假设有四个步长为2的池化层,则任何小于 2的4次方pixel 的物体信息将理论上无法重建。
2、空洞卷积是什么?
空洞卷积(Dilated Convolution),也被称为扩张卷积(Atrous Deconvolution)。这种卷积思路被提出,是为了解决图像语义分割问题中下采样带来的图像分辨率降低、信息丢失这两个问题。在空洞卷积中,我们需要引入扩张率(Dilation Rate)这一参数,使得同样尺寸的卷积核获得更大的感受野。相应地,也可以使得在相同感受野大小的前提下,空洞卷积比普通卷积的参数量更少。
3、空洞卷积与标准的卷积区别是什么?
扩张率分别为1,2,4时的空洞卷积分别如图所示。
图中(c)是扩张率为4时的 3*3 空洞卷积,扩张率大于1时,在标准卷积的基础上,会注入空洞,空洞中的数值全部填0。
4、空洞卷积的感受野
3*3 卷积对应的感受野大小就是3*3 ,而通过两层的3*3卷积之后,感受野的大小将会增加到5*5 。
卷积核大小 K=3 ,扩张率时 r=2 ,计算方式如图所示。其中,通过一层空洞卷积后,感受野大小为5*5 ,而通过两层空洞卷积后,感受野的大小将会增加到 9*9。
5、空洞卷积的应用
1) 语义分割领域:DeepLab系列与DUC 。在DeepLab v3算法中,将ResNet最后几个block替换为空洞卷积,使得输出尺寸变大了很多。在没有增大运算量的前提下,维持分辨率不降低,获得了更密集的特征响应,从而使得还原到原图时细节更好。
2) 目标检测领域:RFBNet。在RFBNet算法中,利用空洞卷积来模拟pRF在人类视觉皮层中的离心率的影响,设计了RFB模块,从而增强轻量级CNN网络的效果。提出基于RFB网络的检测器,通过用RFB替换SSD的顶部卷积层,带来了显著的性能增益,同时仍然保持受控的计算成本。
3) 语音合成领域:WaveNet等算法。
-
- XGB的参数怎么调?
1:基础:引用
XGBoost(eXtreme Gradient Boosting)是Gradient Boosting算法的一个优化的版本。
Boosting算法:同时控制偏差(bias)和方差都有非常好的效果,而且更加高效。
Boosting是如何工作的?
-
- Arcface Loss的原理
-
- 样本不均衡的处理办法
-
- 手写Transformer
-
- RF和GBDT的区别
-
- 介绍自注意力机制
-
- K-means如何选取K值
-
- 常用的Pooling方法有哪些?
-
- 有哪些激活函数?说出它们的优缺点
-
- 介绍伪标签技术
-
- AdaGrad梯度的原理
-
- 哪几种滤波器是平滑的?
-
- YOLO的路由层作用是什么?
-
- 目标框的常见损失有哪些变形?
-
- mAP计算公式
-
- SENet的实现细节
-
- SoftNMS的优缺点
-
- ResNet和ResNeXt的区别
-
- anchor_bbox如何恢复到原始的大小?
-
- BN的参数如何优化?
-
- 介绍Focal Loss和变体
-
- YOLO系列的损失函数
-
- Transformer VS LSTM VS CNN
-
- 写IoU和NMS伪代码
-
- Transformer结构讲解
-
- XGBoost特征选择方式
-
- Maxpooling层如何梯度回传?
-
- Transformer的时间和空间复杂度?
-
- 长尾问题怎么处理?
-
- 介绍常见的插值算法
-
- 介绍YOLO系列的损失函数
-
- BN能不能解决过拟合?为什么
-
- 如何解决数据集的正负样本不平衡?
-
- Batch大小如何选择?
-
- 介绍AdaBoost损失函数
-
- YOLOv4用到哪些优化方法?
-
- Focal Loss 和 交叉熵函数的区别
-
- 介绍U-Net变体
-
- LSTM三个门的作用?
-
- Anchor-free算法进展
-
- 介绍常见的即插即用模块
-
- 模型在部署时,如何做A/B Test ?
-
- 如何缓解过拟合?
-
- 1*1卷积原理和作用
-
- 文本匹配怎么使用BERT?
-
- Bagging和Boosting的区别
-
- 正则化:L1 L2的作用和区别