卷积神经网络和神经网络,卷积神经网络局部连接

卷积神经网络(CNN)因其在图像识别中的高效特征提取而优于全连接神经网络。CNN通过参数共享降低训练需求,而全连接层常用于最后的分类,但参数数量庞大。现代趋势倾向于减少全连接层,如采用全局平均值替代,以减少参数并提升模型效率。CNN的全连接层参数由输入样本训练决定,适应各种复杂条件下的图像处理任务。
摘要由CSDN通过智能技术生成

为什么全连接神经网络在图像识别中不如卷积神经网络

输入数据是n*n的像素矩阵,再使用全连接神经网络,那么参数的个数会是指数级的增长,需要训练的数据太多。

而CNN的话,可以通过共享同一个参数,来提取特定方向上的特征,所以训练量将比全连接神经网络小了很多。

谷歌人工智能写作项目:神经网络伪原创

卷积神经网络为什么最后接一个全连接层

在常见的卷积神经网络的最后往往会出现一两层全连接层,全连接一般会把卷积输出的二维特征图(featuremap)转化成(N*1)一维的一个向量全连接的目的是什么呢?

因为传统的端到到的卷积神经网络的输出都是分类(一般都是一个概率值),也就是几个类别的概率甚至就是一个数--类别号,那么全连接层就是高度提纯的特征了,方便交给最后的分类器或者回归写作猫

但是全连接的参数实在是太多了,你想这张图里就有20*12*12*100个参数,前面随便一层卷积,假设卷积核是7*7的,厚度是64,那也才7*7*64,所以现在的趋势是尽量避免全连接,目前主流的一个方法是全局平均值。

也就是最后那一层的featuremap(最后一层卷积的输出结果),直接求平均值。有多少种分类就训练多少层,这十个数字就是对应的概率或者叫置

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值