神经网络与深度学习笔记(四)

第四章 神经网络可以计算任何函数的可视化证明

    神经网络的一个最显著的事实就是它可以计算任何的函数。不管这个函数是什么样,总会确保有一个神经网络能够对任何可能的输入 x x ,其值f(x)(或者某个足够准确的近似)是网络的输出。即使这个函数有很多输入和输出,这个结果都是成立的。这个结果表明神经网络拥有一种普遍性

4.1 两个预先声明

    第一点,不是说一个网络可以被用来准确地计算任何函数。而是说,我们可以获得尽可能好的一个近似。通过增加隐藏元的数量,我们可以提升近似的精度。
    第二点,近似的函数其实是连续函数。如果函数不是连续的,也就是有突变的跳跃,那么一般来说无法使用一个神经网络进行近似。
    总结,神经网络普遍性定理表述的是:包含一个隐藏层的神经网络可以用来按照任意给定的精度来近似任何连续函数。

4.2 一个输入和一个输出的普遍性

    首先构造神经网络,它能够近似一个只有一个输入和一个输出的函数。这是一个特例,但很容易扩展到有多个输入输出的函数上。
    从如下图的网络开始,它是一个只包含一个隐藏层的网络,有两个隐藏神经元,和单个输出神经元。
这里写图片描述
    考虑隐藏层的第一个神经元,其输出由 σ(wx+b) σ ( w x + b ) 决定。改变其参数 w w b如下图,当 b b 增加的时候,图形往左移动,但是形状不变;当w减小的时候,图形往两边拉宽了;当 w w 增加的时候,图形变得越来越陡。当w超过100的时候,最终看上去就是阶跃函数。
这里写图片描述
    发生阶跃的位置如何由权重和偏置确定呢?实际上,阶跃发生在 s=bw s = − b w 的位置。
这里写图片描述
    使用参数 s s 来简化描述隐藏神经元的方式:
这里写图片描述
    我们只要设置输入上的权重w为一些大的值,然后令 b=ws b = − w s ,就能将一个以这种方式参数化的神经元换回常用的模型。
    再接着考虑整个网络的行为。下图右边展示的是加权输出的结果: σ(w1a1+w2a2+b) σ ( w 1 a 1 + w 2 a 2 + b ) 。调节参数可以观察到:
- 调节 s1 s 1 s2 s 2 的大小分别控制上下两个神经元的激活顺序。如果 s1<s2 s 1 < s 2 ,右图函数的第一个阶梯由第一个神经元输出决定,因为他先被激活。第二个阶梯才是两者的和。
- 调节 w1 w 1 w2 w 2 分别控制两个神经元输出在输出神经元的权重,当其中一个为0时,只剩下一个输入,右边的函数也显示为只有一个阶跃函数。
这里写图片描述
    最后,试着让 w1=0.8w2=0.8 w 1 = 0.8 , w 2 = − 0.8 ,然后 s1=0.4s2=0.6 s 1 = 0.4 , s 2 = 0.6 就得到一个在 (0.4,0.6) ( 0.4 , 0.6 ) 上的门函数,它从 s1 s 1 开始,到 s2 s 2 结束,高为 0.8 0.8
这里写图片描述
    如果我们固定 s1 s 1 s2 s 2 ,然后 w1=w2 w 1 = − w 2 ,这样就可以将门函数看作是只有一个参数 h h 的模型,其中h=w1,对应着就是门函数的“门梁”的位置。通过组合神经元我们就可以轻易得到两个门函数组合的情况:
这里写图片描述
    同样的方法,我们可以构造任意数量任意高度的门函数。因为对于[0,1]这个区间的划分是可以有无限多N个,只要使用N对隐藏层神经元来设置任意期望高度的峰值,然后分别配上对应的 h h 就可以达到要求了。
这里写图片描述
    上图就是一个五个宽度一样的门函数的情形,高度由各自的参数h决定。
    如果现在有一个任意函数 f(x)=0.2+0.4x2+0.3xsin(15x)+0.05cos(50x) f ( x ) = 0.2 + 0.4 x 2 + 0.3 x s i n ( 15 x ) + 0.05 c o s ( 50 x ) ,看看神经网络怎么去近似它。还是使用上述五个门函数的情形,通过调节各自的 h h 得到近似要求的结果:
这里写图片描述
这里写图片描述
    这虽然只是一个粗略的近似,结果也不唯一,但是只要通过增加门函数的个数,即增加隐藏层神经元的个数,就可以让结果越来越精确。将这个得到的模型转换到我们的神经网络参数上,隐藏层的w取了很大的数 w=1000 w = 1000 ,由于 s=bw=0.2 s = − b w = 0.2 ,得到 b=10000.2=200 b = − 1000 ∗ 0.2 = − 200 。输出层的权重由 h h 决定,例如第一个h=1.3,说明他代表的两个权重 w1=1.3w2=1.3 w 1 = 1.3 , w 2 = − 1.3 。以此类推,这样就完成了通过构造一个神经网络来逼近目标函数的目的了,而且通过增加隐藏层神经元的个数(区间区分的越小)可以使得这个近似结果更加准确。

4.3 多个输入变量

    考虑一个神经元有两个输入的情况:
这里写图片描述
    将 x x y看做变量,其加权输出和为因变量,这样就将之前的平面图像转变为三维图像。先设 w2=0 w 2 = 0 ,这样图像为:
这里写图片描述
    随着输入权重变大,输出接近一个阶跃函数。可以改变偏置的位置来移动阶跃点的位置。阶跃点的实际位置是 sx=bw1 s x = − b w 1 。以阶跃点位置作为参数绘制阶跃函数,图中的 x x 表示阶跃方向在x轴方向。
这里写图片描述
    如果设w1=0,就可以得到一个 y y 轴方向的阶跃函数。
这里写图片描述
    接着通过组合,可以得到对应门函数的三维情况。
这里写图片描述
    注意这里的y并没有起到作用,和 y y 相连的权重都被设置成了0。类似也有只有y的版本,将和 x x 的相连的权重设置为0:
这里写图片描述
    如果我们将这两个方向垂直的门函数相加:
这里写图片描述
    改变h的大小可以改变图像的高度,很容易可以知道中间最高的地方是边上的两倍高。我们于是想到能否用中间的高度作为中间区间上的值,这种方法去将定义域分割成一个个区间呢,然后每个区间对应一个值,区间分的越细就越逼近原函数。类似于之前单输入的情况。但是这就需要我们得到的是一个下图类似的塔函数:
这里写图片描述
    但是我们得到的情况是除了中间是高的( 2h 2 h ),边上并不是平的,也有一定的高度( h h ),并不满足塔函数的条件。怎么将其转变为塔函数的形状呢?如果我们选择适当的阈值(h b b ),可以把高原下降到零,并且依然矗立着塔。下图,选择h=10b3h2
这里写图片描述
    一个塔对应着一个隐藏层神经元的输出。将两个类似这样的神经网络组合可以得到两个塔函数,每个塔函数对应二维平面上的一个区域。以此类推,可以得到任意多个自定义高度的塔函数。
这里写图片描述

4.4 结论

    单层的神经网络就已经可以计算任何函数。但是,现实中的问题和知识体系往往是由浅入深的层级关系,而深度网络的层级结构就非常切合这一点。例如对于图像识别的问题,只是着眼于单个像素点的理解当然是不够的,我们更希望它能够识别出更复杂的模式:从简单的线条到复杂的几何形状等等。因此,在解决现实问题上,深度网络对于这种层级的问题处理结果的确要好于浅层网络。

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值