目录
LeNet-5
28*28
Subsampling 并不是maxpooling 隔行采样或隔点采样--》没有参数
AlexNet
很多的创新
Max pooling 引入 ReLu之前是sigmod或---
Dropout操作
VGG
发明六种版本的
VGG11,16,19
之前使用11*11的核,感受域大,接近于全连接
现在研究发现3*3 1*1减少了计算量,效果还好
1*1的卷积核
less computation
GoogLeNet
探索新的东西
小的卷积核,不同的核
点,小窗口,中窗口,大窗口
不对类型的核再处理
22层
Stack more layers
从4-20堆叠的层数越多效果就好
20以上可以层数多了效果并没有多好,解决这个问题可通过BatchNormaliztion
【卷积到底卷了啥?】草履虫都能看懂的卷积神经网络理论与项目实战,看不懂你来打我!(卷积神经网络丨CNN丨神经网络丨人工智能丨AI)_哔哩哔哩_bilibili
ResNet
Conv---BN--Pool---ReLu
VGG的参数量很大,有更好的成果
Resnet Inception
Basic Block
Res Block
DenseNet