【项目问答】EfficientNet

1、efficientB0~B7的区别 

通过AutoML技术(自动选择出一个最合适的模型,并且能够设定好它的最优参数)对图像输入分辨率 ,网络的深度以及通道的宽度进行合理化配置来提升模型效果。

B0~B7网络越来越深,参数量越来越大,效果越来越好

2、为什么可以提升模型效果

  • 增加网络的深度depth能够得到更加丰富、复杂的特征
  • 增加网络的width能够获得更高细粒度的特征
  • 增加输入网络的图像分辨率能够获得更高细粒度的特征

3、介绍一下你用的efficientnet

通过一个3*3卷积提取特征后进入重复堆叠的MBConv结构进一步提取特征,然后经过一个1*1卷积降维后经过一个平均池化层和全连接层

4、MBConv结构是怎样的

MBConv结构主要由一个1x1的普通卷积来进行升维,然后经过一个DW模块、SE模块进一步提取特征,通过一个1x1卷积降维后通过一个Droupout层输出。mbblock

5、DW模块的原理和作用

常规卷积卷积核维度和输入通道一样,卷积核的数量等于输出通道数,而DW模块的卷积核维度是1,卷积核的数量等于输入通道数。从而减少计算量。

缺点:对每个通道独立进行卷积运算,没有提取到通道间的信息

6、SE模块的原理和作用

semodule

各层特征映射的重要性其实是不同的,通过平均池化和两个全连接层学习到不同特征映射层的重要性,将各个特征映射层乘以相应的重要性,从而更好地提取特征

7、怎么通过平均池化和全连接层学习到重要性的

将各层特征映射进行平均池化获得每一层的全局信息,然后通过两个全连接层再去与特征映射相乘,这样在反向传播的时候就能通过梯度更新学到各层的权重

8、为什么有两个全连接层

第一个全连接层通过乘以一个缩放系数进行降维来降低计算量,通过swish来防止梯度消失或爆炸,第二个全连接层进行升维恢复维度以便和feature map相乘,并通过sigmoid将学到的权重限制在0~1之间,以防权重过大。

9、efficient损失函数

交叉熵(只针对二分类,多分类是softmax)

->改为softmax可做多分类

  • 0
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值