深度学习(五)卷积过程的理解

卷积过程贯穿于整个神经网络,尤为重要

卷积核是矩阵,是对输入矩阵的线性变换(旋转、缩放、剪切),输出feature map

举例:335的卷积核,转换成矩阵527 输入图片3100100 转换矩阵2710000,输出feature map 5*10000

从例子出来,我们发现,我们需要对卷积核与输入图片进行一维展开,卷积核H = 卷积核数量(5)、卷积核W = 卷积核尺寸输入图片维度(333)、输入图片H = 卷积核W、输入图片W = 输入图片尺寸(100100)——————输出图片H = 卷积核H、输出图片W = 输入图片W

问题:1、输入图片在转换成矩阵过程中,每行的数据是否一样
2、卷积核每列的数据又是什么,每行的数据是否一样

难点在于对卷积核及输入矩阵的构造,以后明白了再更新

在这里插入图片描述

参考:https://www.jianshu.com/p/a1790d5f5770

防止过拟合一般都会加快收敛速度

BN归一化:防止过拟合,增加收敛速度
padding:防止图像越来越小,图像边界丢失
激活函数:RELU(负数为0,正数为本身)增加非线性,防止欠拟合
池化层的作用:保留特征,增大感受野,降低维度,防止过拟合
全连接层的作用:映射一个加权向一维量,用作分类
正则化是对损失函数的参数进行限制,从而防止了过拟合,L1正则化就是取绝对值
卷积神经网络中,有时候会重复进行相同的卷积操作,目的是增加非线性,以保证相同的感受野同时,减少参数量
dropout 使神经元不动作,防止过拟合,增加数据效率

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值