CS231n Lecture 9: CNN architectures

AlexNet

在这里插入图片描述

这里使用了两个GPU来训练,因为当时的GPU不够强大

CONV1,2,4,5中的feature map的连接只在相同的GPU中有,而CONV3,FC6,FC7,FC8的feature map的连接会跨GPU

ZFNet

在这里插入图片描述

在AlexNet的基础上调了超参数

CONV1: 将 11x11 步长为4的卷积核换成了7x7步长为2的卷积核

CONV3,4,5 分别用了512,1024,512个卷积核

VGGNet

在这里插入图片描述

可以看到,VGG用了更深的网络

同时,3个33,步长为1的卷积层和1个77 的卷积层的感受野实际上是一样的,但是,使用的卷积核小意味着我们可以让网络更加深,并且为网络加入更多的非线性,相比于用7*7的卷积核每层的参数也更少

在这里插入图片描述

通过对VGG的参数分析可以看出,VGG使用的参数太多了!

在全连接层就将近有一个亿的参数

在这里插入图片描述

GoogLeNet

在这里插入图片描述

GoogLeNet拥有更深的网络,同时计算起来也非常有效率

左边的想法会导致卷积会变得越来越深,参数越来越多,而右边可以解决这个问题

在这里插入图片描述

ResNet

整个模型的设计是参照VGG进行设计的

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-UVmLBA8X-1618643000875)(https://s3-us-west-2.amazonaws.com/secure.notion-static.com/f091b46d-2385-4d38-abbc-9c463cf11367/Untitled.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Vkm4MJdt-1618643000877)(https://s3-us-west-2.amazonaws.com/secure.notion-static.com/9f1abe5b-5193-4c83-a98c-ed5d7fe7ec59/Untitled.png)]

越深的模型应该至少表现得和没那么深的模型一样好,因为可以恒等映射

但是事实上并不是这样的,因此作者提出了算差值的方法来训练网络,这样至少不会让深的模型表现得很差

在这里插入图片描述

这里作者提出了一个叫做bottleneck的模块,借鉴了GoogleNet的思想,这样可以不管上一层的深度如何,这一层的输入的深度都会是64

不过它纯是为了节省计算时间进而缩小整个模型训练所需的时间而设计的,对训练精度没有影响
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值