经典网络
LeNet-5
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/8356b35875893e4e5d9a2d89869f85e3.png)
AlexNet
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/cd28195763304d0ad66fe0b27106e6c8.png)
VGG-16
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/1dda4f0a42388970bbcd6eaa81d6b7d2.png)
残差网络
Resnet将信息直接传到神经网络最深层
增加捷径,构成一个残差块
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/4285ff302dc9949aa4b09e47c0fb091b.png)
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/33d1cdd06bc23ff64e4d6d6487ae0044.png)
创建残差网络可以提升网络性能
1x1卷积
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/5680510ee63802a20d0209e2cec21910.png)
压缩nC的方法,也就是压缩通道数。
它给神经网络添加了一个非线性函数,从而减少或保持输入层中的信道数量不变。
inception 网络
代替人工来确定卷积层中的过滤器类型或者确定是否需要创建卷积层或池化层
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/98cb145f257384b530dc31d792565402.png)
可以给网络添加这些参数所有可能的值,然后把这些输出连接起来,让网络自己学习需要什么样的参数,采用哪些过滤器组合。
使用1x1卷积来构建瓶颈层,来降低计算成本。