新年第一更
祝大家新年快乐万事如意
这个时候还愿意点进来,新的一年肯定要起飞了
这情人节和新年连着过啊
这对情侣意味着什么,意味着要带情人去见家长了
当然对一些情侣意味着,情人节过不好,估计年也过不好
对于那些没用男女朋友的,不要心急,不要灰心
好好学习,好好生活,站直走路背影要美
总有一个人愿意跨过所有时间来到你身边
可能ta步履蹒跚,衣衫不整
但你一定要以最帅/美的姿态迎接ta
那些过年没回家的
也不要失望
心中有方向
哪怕整个世界阻拦你
你都会回家的
我来教大家放个烟花
![](https://i-blog.csdnimg.cn/blog_migrate/cce908a60bde9394c72e182c2d77eb44.jpeg)
![](https://i-blog.csdnimg.cn/blog_migrate/216f56dcee41a1e66804dcd215201058.jpeg)
![](https://i-blog.csdnimg.cn/blog_migrate/da470e3f28186ae4597dc5e405793668.jpeg)
![](https://i-blog.csdnimg.cn/blog_migrate/76166e9080f433458e24c209a70be90a.jpeg)
----------------------------------------- _φ_(..) 正文开始--------------------------------------------
微信公号:follow_bobo
知乎:蒋竺波
首发于知乎专栏:卷积神经网络(CNN)入门讲解
时隔一个月,我又来更新啦
啦啦啦
可能有很多小伙伴已经不满了
你怎么更新这么慢啊
其实不是的,其实我很多已经写好了
但是出于神秘原因,不能发
为什么不能发,以后你们就知道了
--------------------------------------好吧,正文现在才开始-----------------------------------------------------
上一期我们讲到激活函数(Activation Function),假设我们经过一个Relu之后的输出如下
Relu:
![](https://i-blog.csdnimg.cn/blog_migrate/9f460e3fdbf3f29528e9ce0a4b0e4f7f.png)
![](https://i-blog.csdnimg.cn/blog_migrate/1286d72bcfa1a4acf215429c58626905.png)
然后开始到达全连接层
啊啊啊,终于开始进入CNN的末尾了
已经推到敌军老家了,准备开始攻打水晶了
大家坚持住,黎明前,最黑暗
![](https://i-blog.csdnimg.cn/blog_migrate/a907c9e063ded10c2c49048e5c86c59f.png)
以上图为例,我们仔细看上图全连接层的结构,全连接层中的每一层是由许多神经元组成的(1x 4096)的平铺结构,上图不明显,我们看下图
![](https://i-blog.csdnimg.cn/blog_migrate/afefe44ea779cc4cd76e414af79901bf.png)
当我第一次看到这个全连接层,我的第一个问题是:
它是怎么样把3x3x5的输出,转换成1x4096的形式
![](https://i-blog.csdnimg.cn/blog_migrate/10ca4bbd98d4e08f47384749b455661d.png)
很简单,可以理解为在中间做了一个卷积
![](https://i-blog.csdnimg.cn/blog_migrate/5fc218eee0c2a241dfe440444ea2925a.png)
从上图我们可以看出,我们用一个3x3x5的filter 去卷积激活函数的输出,得到的结果就是一个fully connected layer 的一个神经元的输出,这个输出就是一个值
因为我们有4096个神经元
我们实际就是用一个3x3x5x4096的卷积层去卷积激活函数的输出
很多人看到这,可能就恍然大悟
哦,我懂了,就是做个卷积呗
不
你不懂
敲黑板了
麻烦后排吃东西的同学叫下前排玩游戏的同学去把第一排的同学吵醒
我要说重点了!!!!!!!!!!!
这一步卷积一个非常重要的作用
就是把分布式特征representation映射到样本标记空间
什么,听不懂
那我说人话
就是它把特征representation整合到一起,输出为一个值
这样做,有一个什么好处?
就是大大减少特征位置对分类带来的影响
来,让我来举个简单的例子
![](https://i-blog.csdnimg.cn/blog_migrate/6bb82cb5e4d9b65c2111f6454e79b6f8.png)
这个例子可能过于简单了点
可是我懒得画了,大家将就着看吧
从上图我们可以看出,猫在不同的位置,输出的feature值相同,但是位置不同
对于电脑来说,特征值相同,但是特征值位置不同,那分类结果也可能不一样
而这时全连接层filter的作用就相当于
喵在哪我不管
我只要喵
于是我让filter去把这个喵找到
实际就是把feature map 整合成一个值
这个值大
哦,有喵
这个值小
那就可能没喵
和这个喵在哪关系不大了有没有
鲁棒性有大大增强了有没有
喵喵喵
因为空间结构特性被忽略了,所以全连接层不适合用于在方位上找Pattern的任务,比如segmentation
ok, 我们突然发现全连接层有两层1x4096fully connected layer平铺结构(有些网络结构有一层的,或者二层以上的)
好吧也不是突然发现,我只是想增加一点戏剧效果
![](https://i-blog.csdnimg.cn/blog_migrate/ab665d084cfbf329657b4acaa207d2f5.png)
但是大部分是两层以上呢
这是为啥子呢
泰勒公式都知道吧
意思就是用多项式函数去拟合光滑函数
我们这里的全连接层中一层的一个神经元就可以看成一个多项式
我们用许多神经元去拟合数据分布
但是只用一层fully connected layer 有时候没法解决非线性问题
而如果有两层或以上fully connected layer就可以很好地解决非线性问题了
说了这么多,我猜你应该懂的
听不懂?
那我换个方式给你讲
我们都知道,全连接层之前的作用是提取特征
全理解层的作用是分类
我们现在的任务是去区别一图片是不是猫
![](https://i-blog.csdnimg.cn/blog_migrate/eb066f927ce4ae28747f5a3180b3caeb.png)
哈哈哈,猫猫好可爱
我先撸一把先
撸完了,回来啦(嗯,怎么好像哪里不对)
假设这个神经网络模型已经训练完了
全连接层已经知道
![](https://i-blog.csdnimg.cn/blog_migrate/32da796768b4332edcdba38efa81d974.png)
当我们得到以上特征,我就可以判断这个东东是猫了
因为全连接层的作用主要就是实现分类(Classification)
从下图,我们可以看出
![](https://i-blog.csdnimg.cn/blog_migrate/61cb38fcf2a83943055ee5b1b4a6109b.png)
红色的神经元表示这个特征被找到了(激活了)
同一层的其他神经元,要么猫的特征不明显,要么没找到
当我们把这些找到的特征组合在一起,发现最符合要求的是猫
ok,我认为这是猫了
那我们现在往前走一层
那们现在要对子特征分类,也就是对猫头,猫尾巴,猫腿等进行分类
比如我们现在要把猫头找出来
![](https://i-blog.csdnimg.cn/blog_migrate/b97e0909d5612c1e28e191463becaa2b.png)
猫头有这么些个特征
于是我们下一步的任务
就是把猫头的这么些子特征找到,比如眼睛啊,耳朵啊
![](https://i-blog.csdnimg.cn/blog_migrate/c39e92b13de5939946327df2e65449f8.png)
道理和区别猫一样
当我们找到这些特征,神经元就被激活了(上图红色圆圈)
这细节特征又是怎么来的?
就是从前面的卷积层,下采样层来的
至此,关于全连接层的信息就简单介绍完了
说实话,说的有点简单
但是我不能摆公式啊
不能摆计算啊
所以
大家就将就着看吧
有问题在下面留言
-------------------------------------------------------------------
新年快乐啦
有人说以前的文风太浮夸
现在我严谨一些
不知道大家喜欢不
喜欢的
点个赞