笔记四:经典神经网络

经典神经网络

LeNet-5: 手写体数字识别

在这里插入图片描述
LeNet-5网络的论文:Lecun et al.,1998 Gradient-based learning applied to document recognition
吴恩达老师建议阅读第二和第三部分

AlexNet

在这里插入图片描述
说明:

  1. 上图为AlexNet的神经网络结构
  2. 如图所示,通过5x5卷积核以stride=2进行卷积运算后,输入特征由27x27x96得到输出特征27x27x256,根据笔记一中公式可以推得:该处进行了padding操作,且padding的大小经过计算为15。
  3. 该网络需要训练的参数大约为60 million
  4. 根据吴恩达老师所说,改网络提出来的时候GPU的运算速度相对来说比较慢,所以Alex想了一种复杂的方法将不同的层拆分到在不同的GPU上进行训练,然后通过某种方法用于GPU之间的数据交换,从而提升训练速度,具体情况可以查询相关资料进行了解。
  5. 相比于LeNet-5,该网络使用RELU函数作为激活函数。

VGG-16:专注于构建卷积层的网络

在这里插入图片描述
说明:

  1. 卷积核的选择如图所示:3x3,stride=1,padding is same as stride,so it’s 1; 池化单元的信息:2x2,stride=2
  2. [CONV 64]表示有64个卷积核核输入特征图进行卷积计算,x2表示,该卷积计算进行了两次,具体计算过程如由上图所示
  3. 如图网络结构所示:经过padding的卷积计算使得输出特征单元与输入特征单元具有相同的大小,经过池化单元使得输出特征单元的大小为输入特征单元的一半
  4. 由图观察可知,通道数在每次卷积过程中都成倍增加
  5. 该网络的训练参数为138 million
  6. 其他需要了解请搜索左下角文献:Very deep convolutional networks for large-scale image recognition
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值