Gradient-Based Learning Applied to Document Recognition (LeNet) 论文阅读笔记

Gradient-Based Learning Applied to Document Recognition (LeNet) 论文阅读笔记

论文中的相关问题

1.为什么卷积神经网络具有平移不变性

原文如下:
Convolutional networks combine three architectural ideas to ensure some degree of shift, scale, and distortion in-variance:

  • local receptive fields;
  • shared weights (orweight replication);
  • spatial or temporal subsampling.

卷积网络结合了3个架构设计特点来保证一定程度上的平移、尺度和旋转不变性:

  • 局部感受野(local receptive fields);

  • 权重共享(weight sharing);

  • 空间下采样(spatial sub-sampling)。

    在这里插入片描述

在这里插入图片描述
在这里插入图片描述

  • 卷积:
    无论鼻子和眼睛的特征在左下角还是右上角,在利用卷积核对图像进行扫描的过程中,总会出现卷积的响应最大的情况,即表示找到了这样的特征。
  • 池化:
    比如最大池化,它返回感受野中的最大值,如果最大值被移动了,但是仍然在这个感受野中,那么池化层也仍然会输出相同的最大值。
  • 激活:
    经过池化后,该特征对应的神经元仍会被激活。这就有点平移不变的意思了。

2.LeNet网络结构

图中没有画出激活层

3.如何理解权值共享

  • 权值共享就是我的每个卷积核(获得的每一个特征)里面的神经元对应的参数都是相同的,而且阈值也是共享的。
    • 例如输入的图片大小是7*7,如果想获得两个特征,可以用两个3*3卷积对输入图片进行作用得到两个大小为5*5的feature map。每一个feature map中的神经元都对应着输入图像中一个3*3的区域,则每个神经元对应的权值个数是3*3=9,由于对一个feature map而言,对应的是同一个卷积核,因此一个feature map的所有神经元共享权值,两个feature map就有2*9=18个权值。
    • 一个神经元对应一个阈值,那么一个特征图也就是一个阈值,两个特征图也就是两个阈值。

reference: (https://www.quora.com/How-is-a-convolutional-neural-network-able-to-learn-invariant-features)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
gradient-based neural dag learning(梯度优化的神经有向无环图学习)是一种用于构建和训练神经网络结构的方法。它通过学习网络的拓扑结构,即神经网络的连接方式和层次结构,来优化网络性能。 传统的神经网络结构通常是由人工设计的,而在gradient-based neural dag learning中,网络的结构可以通过梯度下降算法进行优化。该方法的核心思想是在训练过程中不仅学习网络的权重参数,还学习网络的拓扑结构。 在gradient-based neural dag learning中,网络的结构可以表示为有向无环图(DAG),图中的节点表示网络中的层或操作,边表示连接。我们可以用一组变量来表示每个节点的状态和连接关系,通过优化这些变量,实现网络结构的优化。 具体地,gradient-based neural dag learning通过计算网络中每个操作或层对目标函数的梯度来优化变量。在梯度下降的过程中,网络的结构随着反向传播算法的迭代而逐渐优化。这种方法可以使得网络自动完成结构的搜索和选择,提高了网络的表达能力和性能。 由于gradient-based neural dag learning可以自动进行网络结构的学习和优化,它可以减轻人工设计网络结构的负担,并且在处理复杂任务时能够获得更好的性能。然而,由于网络结构的搜索空间非常大,优化过程可能会很复杂,需要大量的计算资源和时间。 总之,gradient-based neural dag learning是一种通过梯度下降优化网络结构的方法,能够自动学习和优化神经网络的拓扑结构,提高网络性能。这种方法在深度学习领域有着广泛的应用潜力,并且为网络的设计和训练带来了新的思路和方法。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值