机器不学习:CNN入门讲解-为什么要有最后一层全连接

哈哈哈,又到了讲段子的时间

准备好了吗?

今天要说的是CNN最后一层了,CNN入门就要讲完啦。。。。。

先来一段官方的语言介绍全连接层(Fully Connected Layer)

全连接层常简称为 FC,它是可能会出现在 CNN 中的、一个比较特殊的结构;从名字就可以大概猜想到、FC 应该和普通层息息相关,事实上也正是如此。直观地说、FC 是连接卷积层和普通层的普通层,它将从父层(卷积层)那里得到的高维数据铺平以作为输入、进行一些非线性变换(用激活函数作用)、然后将结果输进跟在它后面的各个普通层构成的系统中:

上图中的 FC 一共有3*2*2 =12个神经元,自 FC 之后的系统其实就是NN。换句话说、我们可以把 CNN 拆分成如下两块结构:

自输入开始、至 FC 终止的“卷积块”,组成卷积块的都是卷积层自 FC 开始、至输出终止的“NN 块”,组成 NN 块的都是普通层

注意:值得一提的是,在许多常见的网络结构中、NN 块里都只含有 FC 这个普通层

明白了没有?各位看官

没有?

说白了全连接就是一个分类器,LR知道不?

逻辑回归懂不懂?

将上层抽取出来的特征向量在里面做一个权重计算,输出各个类别的概率,就是这个,没了。

那么为什么 CNN 会有 FC 这个结构呢?

或者问得更具体一点、为什么要将总体分成卷积块和 NN 块两部分呢?

这其实从直观上来说非常好解释:卷积块中的卷积的基本单元是局部视野,用它类比我们的眼睛的话、就是将外界信息翻译成神经信号的工具,它能将接收的输入中的各个特征提取出来;至于 NN(神经网络)块、则可以类比我们的神经网络(甚至说、类比我们的大脑),它能够利用卷积块得到的信号(特征)来做出相应的决策。概括地说、CNN 视卷积块为“眼”而视 NN 块为“脑”,眼脑结合则决策自成。

用机器学习的术语来说、则卷积块为“特征提取器”而 NN 块为“决策分类器”,

而他的作用就是:全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用

而事实上,CNN 的强大之处其实正在于其卷积块强大的特征提取能力上、NN 块甚至可以说只是用于分类的一个附属品而已。我们完全可以利用 CNN 将特征提取出来后、用之前介绍过的决策树、支持向量机等等来进行分类这一步而无须使用 NN 块。

有没有觉得很赞,关注一下呗,哈哈哈

转载于:https://www.cnblogs.com/mfryf/p/11383282.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值