经典的卷积神经网络

目录

LeNet-5

AlexNet

VGG

GoogLeNet

Stack more layers

ResNet

Basic Block

Res Block

 DenseNet



LeNet-5

 

 28*28

Subsampling 并不是maxpooling 隔行采样或隔点采样--》没有参数

AlexNet

 很多的创新

Max pooling 引入  ReLu之前是sigmod或---

Dropout操作

VGG

发明六种版本的

VGG11,16,19

 之前使用11*11的核,感受域大,接近于全连接

现在研究发现3*3  1*1减少了计算量,效果还好

1*1的卷积核

less computation

GoogLeNet

探索新的东西

小的卷积核,不同的核

点,小窗口,中窗口,大窗口

不对类型的核再处理

22层

 

Stack more layers

 从4-20堆叠的层数越多效果就好

20以上可以层数多了效果并没有多好,解决这个问题可通过BatchNormaliztion

【卷积到底卷了啥?】草履虫都能看懂的卷积神经网络理论与项目实战,看不懂你来打我!(卷积神经网络丨CNN丨神经网络丨人工智能丨AI)_哔哩哔哩_bilibili

ResNet

 

Conv---BN--Pool---ReLu

 

 

 

 VGG的参数量很大,有更好的成果

Resnet Inception

Basic Block

Res Block

 

 DenseNet

 

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值