2022.01-02-03 深度学习入门-基于python的理论与实现

唉,开始写这篇文章的时候,我还没看书呢,,,,天天有种赶作业的感觉,我太烦啦,讨厌自己的惰性。这本书一共有8个章节第一章是python基础介绍, 我是从第二章感知机开始写的。第三章神经网络,第四章神经网络的学习。第五章误差反向传播法,第六章与学习相关的技巧,第七章也就是本篇需要记载的卷积神经网络。第八章是深度学习。本来计划2周出一篇实践记录的,但是就我这懒的样子,实验只能放到下周了,下周会将前6周的实验全做一下。

对于卷积计算的细节我就不记录了,可参考博客:CNN卷积具体计算过程_lichunchi123的博客-CSDN博客_cnn计算过程

全链接层在计算的过程中忽略了数据的形状,将全部的输入数据作为相同的神经元(同一维度的神经元)处理。所以无法利用与形状相关的信息。而卷积层可以保持形状不变,当输入数据数图像时,卷积层会以3维数据的形式接受输入数据,并同样以3维数据的形式输出至下一层,因此在CNN中,可以(有可能)正确理解图像等具有的形状数据。

特征图: 在CNN中将输入输出数据成为特征图,卷积层的输入成为输入特征图,输出数据成为输出特征图。

填充Padding:在进行卷积层的输入前,有时向输入数据的周围填入固定的数据比如0,这称为填充(padding)。填充是为了调整输出的大小,如对于(4,4)的输入应用(3,3)的过滤器时,输出将变成(2,2)相当于输出大小比输入大小缩小2个元素。在反复的卷积过程中神经网络将会出现问题。因为在某个时刻输出可能变成1个元素,导致无法在进行卷积运算。为了避免这个问题就要使用填充。

 步幅:应用到滤波器的位置间隔称为步幅。

 输出size计算公式:假设输入特征图的大小为(H, W), 填充大小为(P, P), 步幅为S, 滤波器的大小为(FH, FW)输出大小为(OH, OW)则:

  • OH = \frac{H + 2P - FH }{S} + 1
  • OW = \frac{H + 2P - FW }{S} + 1

在3维数据的卷积网络中,输入数据和滤波器的通道数量要保持一致。

池化层的特征:

1.没有学习的参数,只是从目标区域中取最大值, 或者平均值

2.通道数不发生变化,经过池化运算,输入数据和输出数据的通道数不会发生变化。计算是按照通道独立进行的。

3.对微小的位置变化具有鲁棒性(健壮)

总结:

  • CNN在此前的全连接网络中新增了卷积层和池化层。
  • 使用im2col函数可以简单、高效地实现卷积层和池化层。
  • LeNet和AlexNet是CNN的代表性网络
  • 在深度学习的发展中,大数据和GPU做出了很大的贡献
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值