学习进度:【22/73】
卷积神经网络
chapter_convolutional-neural-networks/why-conv.ipynb
重新考察全连接层
平移不变性
不管检测对象出现在图像中的哪个位置,神经网络的前面几层应该对相同的图像区域具有相似的反应,即为“平移不变性”
局部性
全连接层与卷积层的关系
图像卷积
chapter_convolutional-neural-networks/conv-layer.ipynb
互相关运算
在卷积层中,输入张量和核张量通过互相关运算产生输出张量。
交叉相关vs卷积
一维和三维交叉相关
填充和步幅
chapter_convolutional-neural-networks/padding-and-strides.ipynb
填充和步幅是卷积层的两个控制输出大小的超参数
填充
由于卷积核的宽度和高度通常大于1,在应用多层卷积时,我们常常丢失边缘像素。 由于我们通常使用小卷积核,因此对于任何单个卷积,我们可能只会丢失几个像素。 但随着我们应用许多连续卷积层,累积丢失的像素数就多了。 解决这个问题的简单方法即为填充
填充原则:
步幅
有时候为了高效计算或是缩减采样次数,卷积窗口可以跳过中间位置,每次滑动多个元素
步幅原则:
总结
多输入多输出通道
chapter_convolutional-neural-networks/channels.ipynb
多个输入通道
当输入包含多个通道时,需要构造一个与输入数据具有相同输入通道数的卷积核,以便与输入数据进行互相关运算。
多个输出通道
多个输入和输出通道
1x1卷积层
二维卷积层
总结
池化层(汇聚层)
chapter_convolutional-neural-networks/pooling.ipynb
卷积层的缺点
二维最大池化层
池化层vs卷积层
平均池化层
总结