python
宝剑磨,梅花寒
这个作者很懒,什么都没留下…
展开
-
Tensorflow学习笔记之tf.layers.conv2d
Tensorflow学习笔记 关于Tensorflow的学习笔记大部分为其他博客或者书籍转载,只为督促自己学习。 conv2d(inputs, filters, kernel_size, strides=(1, 1), padding='valid', data_format='channels_last', dilation_rate=(1, 1), ...转载 2018-10-22 15:23:23 · 2655 阅读 · 0 评论 -
Tensorflow学习笔记之tf.nn.relu
Tensorflow学习笔记之tf.nn.relu 关于Tensorflow的学习笔记大部分为其他博客或者书籍转载,只为督促自己学习。 线性整流函数(Rectified Linear Unit,ReLU),又称修正线性单元。其定义如下图,在横坐标的右侧,ReLU函数为线性函数。在横坐标的左侧,ReLU函数值为0。 因此tf.nn.relu()的目的就是将输入小于0的值设为1,输入大于0的值不变。...转载 2018-10-22 15:36:54 · 812 阅读 · 0 评论 -
Tensorflow学习笔记之池化
Tensorflow学习笔记之池化 在深度学习网络中,经常会遇到池化操作,并且往往是在卷积之后,池化操作的意义是降低卷积层输出特征向量的维度,并且通过不同的池化方法使不同维度的卷积层输出结果得到相同维度的特征向量结果。 1、一般池化 池化过程作用于不重叠区域 我们定义池化窗口的大小为sizeX,即下图中红色正方形的边长,定义两个相邻池化窗口的水平位移/竖直位移为stride。一般池化由于每一池化...转载 2018-10-22 17:12:22 · 305 阅读 · 0 评论