山东大学项目实训十一——吴恩达深度学习笔记

笔记已免费上传https://download.csdn.net/download/fangjiayou/85431944

为什么使用深层表示?(Why deep representations?)

我们都知道深度神经网络能解决好多问题,其实并不需要很大的神经网络,但是得有
深度,得有比较多的隐藏层,这是为什么呢?我们一起来看几个例子来帮助理解,为什么
深度神经网络会很好用。
首先,深度网络在计算什么?
在这里插入图片描述

首先,深度网络究竟在计算什么?如果你在建一个人脸识别或是人脸检测系统,深度
神经网络所做的事就是,当你输入一张脸部的照片,然后你可以把深度神经网络的第一层,
当成一个特征探测器或者边缘探测器。在这个例子里,我会建一个大概有 20 个隐藏单元的
深度神经网络,是怎么针对这张图计算的。隐藏单元就是这些图里这些小方块(第一张大
图),举个例子,这个小方块(第一行第一列)就是一个隐藏单元,它会去找这张照片里“|”
边缘的方向。那么这个隐藏单元(第四行第四列),可能是在找(“—”)水平向的边缘在哪
里。之后的课程里,我们会讲专门做这种识别的卷积神经网络,到时候会细讲,为什么小
单元是这么表示的。你可以先把神经网络的第一层当作看图,然后去找这张照片的各个边
缘。我们可以把照片里组成边缘的像素们放在一起看,然后它可以把被探测到的边缘组合
成面部的不同部分(第二张大图)。比如说,可能有一个神经元会去找眼睛的部分,另外还有别的在找鼻子的部分,然后把这许多的边缘结合在一起,就可以开始检测人脸的不同部分。最后再把这些部分放在一起,比如鼻子眼睛下巴,就可以识别或是探测不同的人脸

跟后几层结合在一起,那么总体上就能学习更多复杂的函数。这些图的意义,我们在学习
卷积神经网络的时候再深入了解。还有一个技术性的细节需要理解的是,边缘探测器其实
相对来说都是针对照片中非常小块的面积。就像这块(第一行第一列),都是很小的区域。
面部探测器就会针对于大一些的区域,但是主要的概念是,一般你会从比较小的细节入手,比如边缘,然后再一步步到更大更复杂的区域,比如一只眼睛或是一个鼻子,再把眼睛鼻子装一块组成更复杂的部分。
这种从简单到复杂的金字塔状表示方法或者组成方法,也可以应用在图像或者人脸识
别以外的其他数据上。比如当你想要建一个语音识别系统的时候,需要解决的就是如何可
视化语音,比如你输入一个音频片段,那么神经网络的第一层可能就会去先开始试着探测
比较低层次的音频波形的一些特征,比如音调是变高了还是低了,分辨白噪音,咝咝咝的
声音,或者音调,可以选择这些相对程度比较低的波形特征,然后把这些波形组合在一起
就能去探测声音的基本单元。在语言学中有个概念叫做音位,比如说单词 ca,c 的发音,
“嗑”就是一个音位,a 的发音“啊”是个音位,t 的发音“特”也是个音位,有了基本的声音单
元以后,组合起来,你就能识别音频当中的单词,单词再组合起来就能识别词组,再到完
整的句子。在这里插入图片描述

所以深度神经网络的这许多隐藏层中,较早的前几层能学习一些低层次的简单特征,
等到后几层,就能把简单的特征结合起来,去探测更加复杂的东西。比如你录在音频里的
单词、词组或是句子,然后就能运行语音识别了。同时我们所计算的之前的几层,也就是
相对简单的输入函数,比如图像单元的边缘什么的。到网络中的深层时,你实际上就能做
很多复杂的事,比如探测面部或是探测单词、短语或是句子。
有些人喜欢把深度神经网络和人类大脑做类比,这些神经科学家觉得人的大脑也是先
探测简单的东西,比如你眼睛看得到的边缘,然后组合起来才能探测复杂的物体,比如脸。

这种深度学习和人类大脑的比较,有时候比较危险。但是不可否认的是,我们对大脑运作
机制的认识很有价值,有可能大脑就是先从简单的东西,比如边缘着手,再组合成一个完
整的复杂物体,这类简单到复杂的过程,同样也是其他一些深度学习的灵感来源,之后的
视频我们也会继续聊聊人类或是生物学理解的大脑。
Small:隐藏单元的数量相对较少
Deep:隐藏层数目比较多

深层的网络隐藏单元数量相对较少,隐藏层数目较多,如果浅层的网络想要达到同样
的计算结果则需要指数级增长的单元数量才能达到。
另外一个,关于神经网络为何有效的理论,来源于电路理论,它和你能够用电路元件
计算哪些函数有着分不开的联系。根据不同的基本逻辑门,譬如与门、或门、非门。在非
正式的情况下,这些函数都可以用相对较小,但很深的神经网络来计算,小在这里的意思
是隐藏单元的数量相对比较小,但是如果你用浅一些的神经网络计算同样的函数,也就是
说在我们不能用很多隐藏层时,你会需要成指数增长的单元数量才能达到同样的计算结果。在这里插入图片描述

我再来举个例子,用没那么正式的语言介绍这个概念。假设你想要对输入特征计算异
或或是奇偶性,你可以算𝑥1𝑋𝑂𝑅𝑥2𝑋𝑂𝑅𝑥3𝑋𝑂𝑅 … … 𝑥𝑛,假设你有𝑛或者𝑛𝑥个特征,如果你画一个异或的树图,先要计算𝑥1,𝑥2的异或,然后是𝑥3和𝑥4。技术上来说如果你只用或门,还有非门的话,你可能会需要几层才能计算异或函数,但是用相对小的电路,你应该就可以计算异或了。然后你可以继续建这样的一个异或树图(上图左),那么你最后会得到这样的电路来输出结果𝑦,𝑦^ = 𝑦,也就是输入特征的异或,或是奇偶性,要计算异或关系。这种树图对应网络的深度应该是𝑂(𝑙𝑜𝑔(𝑛)),那么节点的数量和电路部件,或是门的数量并不会很大,你也不需要太多门去计算异或。
但是如果你不能使用多隐层的神经网络的话,在这个例子中隐层数为𝑂(𝑙𝑜𝑔(𝑛)),比如
你被迫只能用单隐藏层来计算的话,这里全部都指向从这些隐藏单元到后面这里,再输出
𝑦,那么要计算奇偶性,或者异或关系函数就需要这一隐层(上图右方框部分)的单元数
呈指数增长才行,因为本质上来说你需要列举耗尽2𝑛种可能的配置,或是2𝑛种输入比特的
配置。异或运算的最终结果是 1 或 0,那么你最终就会需要一个隐藏层,其中单元数目随
输入比特指数上升。精确的说应该是2𝑛−1个隐藏单元数,也就是𝑂(2𝑛)。
我希望这能让你有点概念,意识到有很多数学函数用深度网络计算比浅网络要容易得
多,我个人倒是认为这种电路理论,对训练直觉思维没那么有用,但这个结果人们还是经
常提到的,用来解释为什么需要更深层的网络。
除了这些原因,说实话,我认为“深度学习”这个名字挺唬人的,这些概念以前都统称
为有很多隐藏层的神经网络,但是深度学习听起来多高大上,太深奥了,对么?这个词流
传出去以后,这是神经网络的重新包装或是多隐藏层神经网络的重新包装,激发了大众的
想象力。抛开这些公关概念重新包装不谈,深度网络确实效果不错,有时候人们还是会按
照字面意思钻牛角尖,非要用很多隐层。但是当我开始解决一个新问题时,我通常会从
logistic 回归开始,再试试一到两个隐层,把隐藏层数量当作参数、超参数一样去调试,这
样去找比较合适的深度。但是近几年以来,有一些人会趋向于使用非常非常深邃的神经网
络,比如好几打的层数,某些问题中只有这种网络才是最佳模型。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值