【ML&DL学习】16 tf keras cnn selu

卷积神经网络

在这里插入图片描述
在这里插入图片描述
全连接层在卷积层和池化层的后面,因为卷积层的输入和输出是一个多维的矩阵,而全连接层的输入和输出是一个多维的向量,所以在卷积层和全连接层的连接点上,需要做一个操作,就是把卷积的输出给展平,展平涉及维度信息,全连接层无法将维度信息给呈现出来,全连接层无法直接与卷积层做连接。

什么是反卷积层?可以使数据维度变大,可以使得输入和输出一样大,当输入和输出一样大的时候,就可以去做物体分割(输入和输出尺寸一样)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
局部连接
在这里插入图片描述
在这里插入图片描述
图像的区域性,一定区域的图像,像素点之间的信息有相似性
在这里插入图片描述
在这里插入图片描述
输出size = 输入size - 卷积核厚度(即卷积核size - 1)
在这里插入图片描述
在这里插入图片描述
步长为2,图片大小越来越小
在这里插入图片描述
在这里插入图片描述
多通道图像卷积处理,卷积核也是多通道的,每个通道对应上去,做乘法求和,输出依然是单通道输出。

如果提取多组特征,即多个卷积核处理,输出就是多个卷积核处理后的特征
在这里插入图片描述
在这里插入图片描述

池化

选择区域里面的最大值
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
不重叠指的是步长一样,计算过程中没有重叠的区域,不补零,指滑到最后,不够的区域直接丢掉。
平移后的卷积层会不一样,如果先做池化操作,这样平移后卷积会一样,具有平移鲁棒性。但是会损失一些精度信息。有些细节的东西会没有。

代码实现

from sklearn.preprocessing import StandardScaler

scaler = StandardScaler()
x_train_scaled = scaler.<
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值