第四周学习任务

目录

论文阅读与视频学习

MobileNet V1&V2

MobileNet V3

SE-Net

文章学习

代码学习

代码作业

论文阅读

内容总结

代码练习

问题思考

1.3D卷积与2D卷积区别

2.为什么每次分类结果都不一样?

3.要想提高高光谱图像的分类性能,如何改进?

感想


论文阅读与视频学习

MobileNet V1&V2

传统卷积神经网络:内存需求大、运算量大导致无法在移动设备以及嵌入式设备上运行。

MobileNet网络是google团队在2017年提出的,专注于移动端或者嵌入式设备中的轻量级CNN网络。相比于传统的卷积神经网络,在准确率小幅降低的前提下大大减少了模型参数与运算量。

网络中的亮点:

  1. Depthwise Convolution(大大减少运算量和参数数量)。
  2. 增加超参数:控制卷积核卷积个数的超参数α和控制输入图像大小的超参数β,这两个超参数是我们人为自己设定的,并非学习到的。

传统卷积:

卷积核channel=输入特征矩阵channel

输出特征矩阵channel=卷积核个数

DW卷积:

卷积核channel=1

输入特征矩阵channel=卷积核个数=输出特征矩阵channel

PW卷积:

卷积核大小为1×1

卷积核channel=输入特征矩阵channel

输出特征矩阵channel=卷积核个数

 与普通卷积参数量对比:

 Depthwise部分的卷积核容易废掉,即卷积核参数大部分为0。

 MobileNetV2网络是由google团队在2018年提出的,相比MobileNetV1网络,准确率更高,模型更小。

网络中的亮点:

  1. Inverted Residuals(倒残差结构)
  2. Linear Bottlenecks

 

Residual block使用ReLu激活函数,Inverted Residuals block使用ReLu6激活函数。

 y=ReLu6(x)=min(max(x,0),6)

Linear Bottlenecks:在倒残差结构最后一个1×1的卷积层,使用了线性的激活函数,因为ReLu激活函数对于低维特征信息造成大量损失,而对高维特征信息损失很小。

当stride=1且输入特征矩阵与输出特征矩阵shape相同时才有shortcut连接。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值