什么是卷积002

本文详细介绍了卷积网络与传统网络的区别,包括卷积层的特征提取过程,以及Alexnet、VGG和ResNet等经典网络的结构。重点讨论了池化层、全连接层和感受野的概念,以及如何通过ResNet解决深层网络过拟合问题。
摘要由CSDN通过智能技术生成

前言

大纲目录

首先链接图像颜色通道


1.卷积网络和传统网络区别

右边的就是CNN,卷积神经网络,是个三维的,hwc.
传统的是平面的。

2.卷积神经网络整体架构

1.输入层

2. 卷积层

卷积就是特征提取,边界的特征和猫脸的特征重要程度不一样。

下面是一个颜色通道图

这是三通道做卷积,三个卷积核333,卷积核矩阵也不一样,都是做内积,所有结果相乘,结果加起来
想一下,为什么输出是332?
这是因为有两个卷积

这个图和上面的图差不多,我们可以采用两个卷积核去提取特征

这里使用了6个

这里使用了n个

卷积最重要的是卷积矩阵,不同小区,特征值是不一样的。

这个就是三通道加起来

下面就是

卷积要做多少次?

卷积后,大小不一定变换

3.池化层

其实就是下采样

就是找一个最大值

4.全连接层

其实就是做了很多卷积,只不过卷积核和原图大小一样大,做成一个一维的特征向量

5.神经网络

每一个卷积,加一个relu,两次卷积一次池化
全连接层,32**32*10,如果有5个类别,那么就是【10240,5】

6.经典网络

1.Alexnet

2. Vgg

3.Resnet 残差网络-特征提取

分类和回归跟损失函数有关。
层数越大,error越大。
如何解决?
如下图,经过两层卷积后,结果不好,我们再加一条路,到时候就把后面的两层给去掉,权重参数全部设置为0.,加了这条路就有了一个保底的路径。学习完之后,不比原来的差。
这样就可以做到1k层。

7.感受野

最后的那个值是最开始几个数值的综合。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值