卷积神经网络【图解CNN】


卷积神经网络可以看作一个函数或者黑箱,输入就是图片的像素阵列,输出就是这个图片是什么? 在这里插入图片描述
图片是X,那么就输出‘x’,图片是‘O’,那么就输出O;
在计算机眼中,图片是一系列像素阵列
在这里插入图片描述
我们可以通过图片特征,识别图片,假设我们用提取原图中以下三种特征,我们选用以下三种卷积核。
在这里插入图片描述

1.卷积运算

卷积核把原图中的特征提取出来,反应在Feature Map上:
在这里插入图片描述
具体流程如下:
拿卷积核与图中绿色框部分进行运算,得到结果为1,代表这部分与卷积核特征完全相同
在这里插入图片描述
拿卷积核与中间绿色框进行卷积,得到如下卷积结果,最后得到0.55,代表保留了卷积核0.55的特征
在这里插入图片描述
我们拿卷积核对所有部分进行一遍卷积运算,得到如下结果:最后得到如图特征图
在这里插入图片描述
通过不同的卷积核提取不同的特征:
在这里插入图片描述
但是很多情况下,会有很多特征,通过不同的卷积核进行卷积得到很多Feature Map,那么会带来很多的计算量,那么时间就会来不及,所以我们需要把图像进行缩小,因此需要池化层。

2.池化

在这里插入图片描述

池话分为两种:最大池化和平均池化,一般使用Max pooling(在保留了原图特征的同时,还可以降低图像尺寸,降低计算量)

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

激活层
激活层主要对卷积层的输出进行一个非线性映射。
使用ReLUs
在这里插入图片描述

在这里插入图片描述

3.全连接层

在这里插入图片描述
在这里插入图片描述
但是,权重和卷积核又该怎么选择呢?这个是需要训练得到。
损失函数是预测值与真实值的差距,通过后向传播不断求导,得到损失值最小的参数,经过不停的训练,大量的数据,最后模型自己就知道采用哪些卷积核、每一个神经元的权重是多少,这就是机器学习。
(不需要人为指定卷积核,amazing!!!)
当找到损失函数的最小值时即成功了,但是我们需要一个初始参数,(事先指定卷积核的尺寸、数目、随机生成卷积核、全连接层的数量等)这就是超参数。



【本文为学习CNN的笔记】有错误欢迎指正👊👊👊
视频地址

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

释怀°Believe

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值