1、efficientB0~B7的区别
通过AutoML技术(自动选择出一个最合适的模型,并且能够设定好它的最优参数)对图像输入分辨率 ,网络的深度以及通道的宽度进行合理化配置来提升模型效果。
B0~B7网络越来越深,参数量越来越大,效果越来越好
2、为什么可以提升模型效果
- 增加网络的深度
depth
能够得到更加丰富、复杂的特征 - 增加网络的
width
能够获得更高细粒度的特征 - 增加输入网络的图像分辨率能够获得更高细粒度的特征
3、介绍一下你用的efficientnet
通过一个3*3卷积提取特征后进入重复堆叠的MBConv结构进一步提取特征,然后经过一个1*1卷积降维后经过一个平均池化层和全连接层
4、MBConv结构是怎样的
MBConv结构主要由一个1x1的普通卷积来进行升维,然后经过一个DW模块、SE模块进一步提取特征,通过一个1x1卷积降维后通过一个Droupout层输出。
5、DW模块的原理和作用
常规卷积卷积核维度和输入通道一样,卷积核的数量等于输出通道数,而DW模块的卷积核维度是1,卷积核的数量等于输入通道数。从而减少计算量。
缺点:对每个通道独立进行卷积运算,没有提取到通道间的信息
6、SE模块的原理和作用
各层特征映射的重要性其实是不同的,通过平均池化和两个全连接层学习到不同特征映射层的重要性,将各个特征映射层乘以相应的重要性,从而更好地提取特征
7、怎么通过平均池化和全连接层学习到重要性的
将各层特征映射进行平均池化获得每一层的全局信息,然后通过两个全连接层再去与特征映射相乘,这样在反向传播的时候就能通过梯度更新学到各层的权重
8、为什么有两个全连接层
第一个全连接层通过乘以一个缩放系数进行降维来降低计算量,通过swish来防止梯度消失或爆炸,第二个全连接层进行升维恢复维度以便和feature map相乘,并通过sigmoid将学到的权重限制在0~1之间,以防权重过大。
9、efficient损失函数
交叉熵(只针对二分类,多分类是softmax)
->改为softmax可做多分类