- 博客(8)
- 收藏
- 关注
转载 (四)卷积神经网络 -- 4 池化层
4. 池化层在 二维卷积层 小节介绍的图像物体边缘检测的应用中,通过构造卷积核,精确地找到了像素变化的位置。设任意二维数组X的i行j列的元素为X[i, j]:若构造的卷积核输出Y[i, j]=1,则输入中X[i, j]和X[i, j+1]的数值不同,这可能意味着物体边缘通过这两个元素之间。但在实际图像中,我们感兴趣的物体不会总出现在固定位置:即使连续拍摄同一个物体,也极有可能出现像素位置上的偏移。由此,会导致同一个边缘对应的输出,可能出现在卷积输出Y中的不同位置,进而对后面的模式识别造成不便。为了缓
2020-06-27 16:21:59 808
转载 (四)卷积神经网络 -- 3 多输入通道和多输出通道
3. 多输入通道和多输出通道前两节中,示例所用的输入和输出都是二维数组,但真实数据通常具有更高的维度:如彩色图像,在高和宽2个维度外还有RGB(红、绿、蓝)3个颜色通道。假设彩色图像的高和宽分别是hhh和www(像素),那么,它可以表示为一个3×h×w3\times h\times w3×h×w的多维数组。我们将大小为3的这一维,称为通道(channel)维。本节将介绍含多个输入通道或多个输出通道的卷积核。3.1 muti-channels in3.1.1 概念当输入数据含多个通道时,需要构
2020-06-27 12:52:32 5876 3
转载 (四)卷积神经网络 -- 2 填充和步幅
2. 填充和步幅在1.1小节的示例中,使用高和宽为3的输入与高和宽为2的卷积核得到高和宽为2的输出。一般来说,假设输入形状是nh×nwn_h\times n_wnh×nw,卷积核窗口形状是kh×kwk_h\times k_wkh×kw,那么有输出形状为:(nh−kh+1)×(nw−kw+1)(n_h-k_h+1) \times (n_w-k_w+1)(nh−kh+1)×(nw−kw+1)由此可见,卷积层的输出形状由输入形状和卷积核窗口形状决定。本节将介绍卷积层的两个超参数:填充(p
2020-06-21 17:07:20 2703 3
转载 (四)卷积神经网络 -- 1 (2) 互相关运算 vs 卷积运算/特征图和感受野
1.2 互相关运算 vs 卷积运算为了便于说明问题,假设有一个filter和一张image,如下:互相关运算loop顺序:从左至右、从上至下。如上图所示,对图像中的蓝色区域进行cross-correlation运算,有:output=a∗A+b∗B+c∗C+d∗D+e∗E+f∗F+g∗G+h∗H+i∗Ioutput = a*A+b*B+c*C+d*D+e*E+f*F+g*G+h*H+i*Ioutput=a∗A+b∗B+c∗C+d∗D+e∗E+f∗F+g∗G+h∗H+i∗I卷积运算
2020-06-21 11:02:26 2086
转载 (四)卷积神经网络 -- 1 (1) 二维卷积层
1. 二维卷积层卷积神经网络(convolutional neural network)是含有卷积层(convolutional layer)的神经网络。本章中,将介绍其中最常见的二维卷积层,包含高和宽两个空间维度,常用来处理图像数据。本节中,将介绍简单形式的二维卷积层的工作原理。1.1 two dimentional cross-correlation1.1.1 概念虽然卷积层得名于卷积(convolution)运算,但通常在卷积层中使用更加直观的互相关(cross-correlation)
2020-06-14 20:28:50 1355
转载 (三)深度学习计算 -- 5 GPU计算
5. 自本节将介绍如何自定义一个层,从而可以被重复调用。import tensorflow as tfimport numpy as np5.1 custom layer without parameters3.1.1 自定义层定义一个不含模型参数的自定义层:
2020-06-14 11:43:07 815
转载 (三)深度学习计算 -- 4 读取和存储
4. 读取和存储在实际场景中,可以把内存中训练好的模型参数存储在硬盘上供后续读取使用。import tensorflow as tfimport numpy as np4.1 load and save NDarray使用save函数和load函数分别进行存储和读取。# 创建tensorx = tf.ones(3)x输出:<tf.Tensor: id=2, shape=(3,), dtype=float32, numpy=array([1., 1., 1.], dtype=fl
2020-06-07 16:03:14 298
转载 (三)深度学习计算 -- 3 自定义层
3. 自定义层本节将介绍如何自定义一个层,从而可以被重复调用。import tensorflow as tfimport numpy as np3.1 custom layer without parameters定义一个不含模型参数的自定义层:class CenteredLayer(tf.keras.layers.Layer): def __init__(self): super().__init__() def call(self,inpu
2020-06-07 10:53:08 515
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人