ISLVRC2012数据集(用于图像分类)
AlexNet
(1)首次使用GPU进行网络加速训练
(2)使用了ReLu激活函数,而不是传统的Sigmoid和Tanh激活函数
(3)使用了LRN局部响应归一化
(4)在全连接层的前两层中使用了dropout随机失活神经元操作,以减少过度拟合
结尾的1000,类别有多少就改成多少
pytorch搭建AlexNet
(1)使用 nn.Sequential对一列层结构进行打包组合成一个新的层结构,使代码更简洁
(2)当卷积或池化过程结果为小数时,会自动舍去余数所对应的行和列
(3)inplace=true 增加计算量,减少内存使用量,可用于载入更大模型
(4)stride=1时可以不写,因为默认为1
(1)通过self.modules()会遍历定义的每一个层结构
isinstance(m,nn.Conv2d)用于判断m是否为Conv2d类型