自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

转载 (四)卷积神经网络 -- 4 池化层

4. 池化层在 二维卷积层 小节介绍的图像物体边缘检测的应用中,通过构造卷积核,精确地找到了像素变化的位置。设任意二维数组X的i行j列的元素为X[i, j]:若构造的卷积核输出Y[i, j]=1,则输入中X[i, j]和X[i, j+1]的数值不同,这可能意味着物体边缘通过这两个元素之间。但在实际图像中,我们感兴趣的物体不会总出现在固定位置:即使连续拍摄同一个物体,也极有可能出现像素位置上的偏移。由此,会导致同一个边缘对应的输出,可能出现在卷积输出Y中的不同位置,进而对后面的模式识别造成不便。为了缓

2020-06-27 16:21:59 808

转载 (四)卷积神经网络 -- 3 多输入通道和多输出通道

3. 多输入通道和多输出通道前两节中,示例所用的输入和输出都是二维数组,但真实数据通常具有更高的维度:如彩色图像,在高和宽2个维度外还有RGB(红、绿、蓝)3个颜色通道。假设彩色图像的高和宽分别是hhh和www(像素),那么,它可以表示为一个3×h×w3\times h\times w3×h×w的多维数组。我们将大小为3的这一维,称为通道(channel)维。本节将介绍含多个输入通道或多个输出通道的卷积核。3.1 muti-channels in3.1.1 概念当输入数据含多个通道时,需要构

2020-06-27 12:52:32 5876 3

转载 (四)卷积神经网络 -- 2 填充和步幅

2. 填充和步幅在1.1小节的示例中,使用高和宽为3的输入与高和宽为2的卷积核得到高和宽为2的输出。一般来说,假设输入形状是nh×nwn_h\times n_wnh​×nw​,卷积核窗口形状是kh×kwk_h\times k_wkh​×kw​,那么有输出形状为:(nh−kh+1)×(nw−kw+1)(n_h-k_h+1) \times (n_w-k_w+1)(nh​−kh​+1)×(nw​−kw​+1)由此可见,卷积层的输出形状由输入形状和卷积核窗口形状决定。本节将介绍卷积层的两个超参数:填充(p

2020-06-21 17:07:20 2703 3

转载 (四)卷积神经网络 -- 1 (2) 互相关运算 vs 卷积运算/特征图和感受野

1.2 互相关运算 vs 卷积运算为了便于说明问题,假设有一个filter和一张image,如下:互相关运算loop顺序:从左至右、从上至下。如上图所示,对图像中的蓝色区域进行cross-correlation运算,有:output=a∗A+b∗B+c∗C+d∗D+e∗E+f∗F+g∗G+h∗H+i∗Ioutput = a*A+b*B+c*C+d*D+e*E+f*F+g*G+h*H+i*Ioutput=a∗A+b∗B+c∗C+d∗D+e∗E+f∗F+g∗G+h∗H+i∗I卷积运算

2020-06-21 11:02:26 2086

转载 (四)卷积神经网络 -- 1 (1) 二维卷积层

1. 二维卷积层卷积神经网络(convolutional neural network)是含有卷积层(convolutional layer)的神经网络。本章中,将介绍其中最常见的二维卷积层,包含高和宽两个空间维度,常用来处理图像数据。本节中,将介绍简单形式的二维卷积层的工作原理。1.1 two dimentional cross-correlation1.1.1 概念虽然卷积层得名于卷积(convolution)运算,但通常在卷积层中使用更加直观的互相关(cross-correlation)

2020-06-14 20:28:50 1355

转载 (三)深度学习计算 -- 5 GPU计算

5. 自本节将介绍如何自定义一个层,从而可以被重复调用。import tensorflow as tfimport numpy as np5.1 custom layer without parameters3.1.1 自定义层定义一个不含模型参数的自定义层:

2020-06-14 11:43:07 815

转载 (三)深度学习计算 -- 4 读取和存储

4. 读取和存储在实际场景中,可以把内存中训练好的模型参数存储在硬盘上供后续读取使用。import tensorflow as tfimport numpy as np4.1 load and save NDarray使用save函数和load函数分别进行存储和读取。# 创建tensorx = tf.ones(3)x输出:<tf.Tensor: id=2, shape=(3,), dtype=float32, numpy=array([1., 1., 1.], dtype=fl

2020-06-07 16:03:14 298

转载 (三)深度学习计算 -- 3 自定义层

3. 自定义层本节将介绍如何自定义一个层,从而可以被重复调用。import tensorflow as tfimport numpy as np3.1 custom layer without parameters定义一个不含模型参数的自定义层:class CenteredLayer(tf.keras.layers.Layer): def __init__(self): super().__init__() def call(self,inpu

2020-06-07 10:53:08 515

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除