终于有人把卷积神经网络(CNN)讲明白了

本文介绍了卷积神经网络(CNN)的基本架构、优势以及加深网络和残差连接的重要性,通过实例展示了卷积核的作用,阐述了加深网络对特征提取的影响,探讨了残差连接在解决梯度消失问题中的应用。
摘要由CSDN通过智能技术生成

导读:深度学习作为人工智能的一个分支,在计算机视觉处理方面取得的巨大成就,与深度学习中的算法及方法密切相关,如卷积神经网络、反向传播算法、正则化方法、迁移方法等。其中很多方法具有普遍性,在自然语言处理中也得到了广泛应用。本文将介绍卷积神经网络。

作者:吴茂贵 王红星

来源:大数据DT(ID:hzdashuju)

传统神经网络层之间都采用全连接方式,如果采样数据层数较多,且输入又是高维数据,那么其参数数量可能将是一个天文数字。

比如训练一张1000×1000像素的灰色图片,输入节点数就是1000×1000,如果隐藏层节点是100,那么输入层到隐藏层间的权重矩阵就是1000000×100!如果还要增加隐藏层,进行反向传播,那结果可想而知。不止如此,采用全连接方式还容易导致过拟合。

因此,为更有效地处理图片、视频、音频、自然语言等数据信息,必须另辟蹊径。经过多年不懈努力,人们终于找到了一些有效方法及工具。其中卷积神经网络就是典型代表。

01 卷积网络的一般架构

卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,最早在1986年BP算法中提出。1989年LeCun将其运用到多层神经网络中,但直到1998年LeCun提出LeNet-5模型,神经网络的雏形才基本形成。

在接下来近十年的时间里,对卷积神经网络的相关研究一直处于低谷,原因有两个:一是研究人员意识到多层神经网络在进行BP训练时的计算量极大,以当时的硬件计算能力完全不可能实现;二是包括SVM在内的浅层机器学习算法也开始崭露头角。

2006年,Hinton一鸣惊人,在《科学》上发表名为Reducing the Dimensionality of Data with Neural Networks的文章,CNN再度觉醒,并取得长足发展。2012年,CNN在ImageNet大赛上夺冠。

2014年,谷歌研发出20层的VGG模型。同年,DeepFace、DeepID模型横空出世,直接将LFW数据库上的人脸识别、人脸认证的正确率提高到99.75%,超越人类平均水平。

卷积神经网络由一个或多个卷积层和顶端的全连接层(对应经典的神经网络)组成,同时也包括关联权重和池化层(Pooling Layer)等。与其他深度学习架构相比,卷积神经网络能够在图像和语音识别方面给出更好的结果。这一模型也可以使用反向传播算法进行训练。

相比其他深度、前馈神经网络,卷积神经网络可以用更少的参数获得更高的性能

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值