挖坑-算法题目

  • - 什么是空洞卷积?

 

1:提出空洞卷积的背景引用

FCN网络,在像素级预测问题中(比如语义分割),图像输入到网络中,FCN先像传统的CNN网络一样对图像做卷积以及池化计算,降低特征图尺寸的同时增大感受野。然而,由于图像分割是一种像素级的预测问题,会要求最终的输出尺寸应该与原始的输入图像保持一致。这里,一般会使用转置卷积(Transpose Convolution)进行上采样(Upsample)。

在这种像素级预测问题中,就有两个关键步骤:首先是使用pooling减小图像尺寸增大感受野,其次是使用Upsampling扩大图像尺寸。但是,使用pooling进行下采样会导致一个非常严重的缺陷:图像细节信息被丢失,小物体信息将无法被重建,就比如假设有四个步长为2的池化层,则任何小于 2的4次方pixel 的物体信息将理论上无法重建。

2、空洞卷积是什么?
空洞卷积(Dilated Convolution),也被称为扩张卷积(Atrous Deconvolution)。这种卷积思路被提出,是为了解决图像语义分割问题中下采样带来的图像分辨率降低、信息丢失这两个问题。在空洞卷积中,我们需要引入扩张率(Dilation Rate)这一参数,使得同样尺寸的卷积核获得更大的感受野。相应地,也可以使得在相同感受野大小的前提下,空洞卷积比普通卷积的参数量更少。

3、空洞卷积与标准的卷积区别是什么?
preview

扩张率分别为1,2,4时的空洞卷积分别如图所示。

图中(c)是扩张率为4时的 3*3 空洞卷积,扩张率大于1时,在标准卷积的基础上,会注入空洞,空洞中的数值全部填0。

4、空洞卷积的感受野

 3*3 卷积对应的感受野大小就是3*3  ,而通过两层的3*3卷积之后,感受野的大小将会增加到5*5  。

卷积核大小 K=3 ,扩张率时 r=2 ,计算方式如图所示。其中,通过一层空洞卷积后,感受野大小为5*5   ,而通过两层空洞卷积后,感受野的大小将会增加到  9*9。

5、空洞卷积的应用

1) 语义分割领域:DeepLab系列与DUC 。在DeepLab v3算法中,将ResNet最后几个block替换为空洞卷积,使得输出尺寸变大了很多。在没有增大运算量的前提下,维持分辨率不降低,获得了更密集的特征响应,从而使得还原到原图时细节更好

2) 目标检测领域:RFBNet。在RFBNet算法中,利用空洞卷积来模拟pRF在人类视觉皮层中的离心率的影响,设计了RFB模块,从而增强轻量级CNN网络的效果。提出基于RFB网络的检测器,通过用RFB替换SSD的顶部卷积层,带来了显著的性能增益,同时仍然保持受控的计算成本。

3) 语音合成领域:WaveNet等算法。

  • - XGB的参数怎么调?

1:基础:引用

XGBoost(eXtreme Gradient Boosting)是Gradient Boosting算法的一个优化的版本。

Boosting算法:同时控制偏差(bias)和方差都有非常好的效果,而且更加高效。

Boosting是如何工作的?

 

  • - Arcface Loss的原理

  • - 样本不均衡的处理办法

  • - 手写Transformer

  • - RF和GBDT的区别

  • - 介绍自注意力机制

  • - K-means如何选取K值

  • - 常用的Pooling方法有哪些?

  • - 有哪些激活函数?说出它们的优缺点

  • - 介绍伪标签技术

  • - AdaGrad梯度的原理

  • - 哪几种滤波器是平滑的?

  • - YOLO的路由层作用是什么?

  • - 目标框的常见损失有哪些变形?

  • - mAP计算公式

  • - SENet的实现细节

  • - SoftNMS的优缺点

  • - ResNet和ResNeXt的区别

  • - anchor_bbox如何恢复到原始的大小?

  • - BN的参数如何优化?

  • - 介绍Focal Loss和变体

  • - YOLO系列的损失函数

  • - Transformer VS LSTM VS CNN

  • - 写IoU和NMS伪代码

  • - Transformer结构讲解

  • - XGBoost特征选择方式

  • - Maxpooling层如何梯度回传?

  • - Transformer的时间和空间复杂度?

  • - 长尾问题怎么处理?

  • - 介绍常见的插值算法

  • - 介绍YOLO系列的损失函数

  • - BN能不能解决过拟合?为什么

  • - 如何解决数据集的正负样本不平衡?

  • - Batch大小如何选择?

  • - 介绍AdaBoost损失函数

  • - YOLOv4用到哪些优化方法?

  • - Focal Loss 和 交叉熵函数的区别

  • - 介绍U-Net变体

  • - LSTM三个门的作用?

  • - Anchor-free算法进展

  • - 介绍常见的即插即用模块

  • - 模型在部署时,如何做A/B Test ?

  • - 如何缓解过拟合?

  • - 1*1卷积原理和作用

  • - 文本匹配怎么使用BERT?

  • - Bagging和Boosting的区别

  • - 正则化:L1 L2的作用和区别

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值