AlexNet详解

ISLVRC2012数据集(用于图像分类)

AlexNet

(1)首次使用GPU进行网络加速训练

(2)使用了ReLu激活函数,而不是传统的Sigmoid和Tanh激活函数

 

(3)使用了LRN局部响应归一化

(4)在全连接层的前两层中使用了dropout随机失活神经元操作,以减少过度拟合

结尾的1000,类别有多少就改成多少

pytorch搭建AlexNet

 

(1)使用 nn.Sequential对一列层结构进行打包组合成一个新的层结构,使代码更简洁

(2)当卷积或池化过程结果为小数时,会自动舍去余数所对应的行和列

(3)inplace=true  增加计算量,减少内存使用量,可用于载入更大模型

(4)stride=1时可以不写,因为默认为1

(1)通过self.modules()会遍历定义的每一个层结构

isinstance(m,nn.Conv2d)用于判断m是否为Conv2d类型

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值