卷积神经网络CNN进阶与搭建

Pooling(池化)

在降采样(Subsampling)中起作用,在不改变feature map的基础上,在卷积出来的基础上进一步降低宽高
在这里插入图片描述
在这里插入图片描述
此处stride是滑动几个格子进行下一次计算

#x的维度为[1,14,14,4]
pool=layers.MaxPool2D(2,strides=2)
out=pool(x)

TensorShape([1,7,7,4]) 注:此处7是由⌊14/2⌋-(2-2)得到,公式为⌊宽高/strides⌋-(计算区域的大小-strides)

#x的维度为[1,14,14,4]
pool=layers.MaxPool2D(3,strides=2)
out=pool(x)

TensorShape([1,6,6,4])

#x的维度为[1,14,14,4]
#另外一种写法
out=tf.nn.max_pool2d(x,2,strides=2,padding='VALID')

TensorShape([1,7,7,4])

Relu

在线性层作为激活函数,把x轴上的负数全部变为0,正数保持不变
在这里插入图片描述

ResNet

很多利用卷积神经网络的东西都要引用ResNet这篇论文
通过一个残差卷积神经网络模块,可以自动的让模型去选择使用几层卷积神经网络解决问题

Gradient Vanishing

梯度消失
当神经网络到达一定长度时,就会出现梯度消失,也就是梯度值变得特别小,那么在更新参数的时候(w=w- d y d w \frac{dy}{dw} dwdy*lr),w就相当于几乎不变
在这里插入图片描述

Feature scaling

特征缩放

Image Normalization

一般初始化时使用,当图片给定时一般不使用

Batch Normalization

批量标准化

net=layers.BatchNormalization()
net(x,training=None)

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

醋酸洋红就是我

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值