[deeplearning-010]lenet-5论文阅读笔记

本文是关于Yann LeCun的论文《Gradient-Based Learning Applied to Document Recognition》的阅读笔记,重点介绍了卷积神经网络LeNet-5的架构。LeNet-5通过保留局部区域特征、权重共享和下采样来解决全连接神经网络的缺点。它包含7层,包括卷积层、下采样层和全连接层,用于图像识别任务。论文详细描述了每一层的结构、参数数量和功能,展示了卷积神经网络在处理图像特征方面的优势。
摘要由CSDN通过智能技术生成

1. 论文《Gradient-Based Learning Applied to Document Recognition》 Yann LeCun et. 1998  http://yann.lecun.com/exdb/publis/index.html#lecun-98
  卷积神经网络主要用于计算机视觉,识别图像。因为图像是两维的,因此卷积神经网络的神经元也是按照两维的,以最大程度保留图像的空间特征。

2. 论文第二节
  2.1 描述
    全连接神经网络的缺点:weight太多,存储和训练的效率都不高; 不能保存图像的两维属性。
    卷积神经网络有三个架构观点:保留局部区域特征; 共享weight,减少训练参数; 时间-空间的下采样。
    local receptive field:让神经元抽取可视化特征,比如边缘,端点,角点。下一层组合这些特征以创建更高层的特征。
    对输入图像做一些变形,加入噪声,以部分子区域创建新样本参与训练,可以提升抗噪性能。
    一个卷积层,有多个单元,每个单元对输入的图像的不同部位做同样的卷积操作,因此,这些单元可以在一个图像的同一个部位抽取做个特征。
    卷积层的输出,叫feature map。
    在feature map之后,是下采样层。为什么需要下采样?因为feature map出来的特征,是跟未知坐标的精度相关的,要去掉这种相关性。如果对特征进行下采样,就可以去掉对坐标精度的相关性。

  2.2 LeNet-5的具体结构
    一共有7层。&

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值