为何深层学习

继续转载微笑


读书笔记(可能理解有误,持续更新):

  1. 根据热力第二定律,熵会自然增加,即基本状态A会逐步变成更加复杂的多个状态A1 A2...Ai。 
  2. 多个基本状态A,B会变成多个复杂状态(A1,...Ai)和(B1,..Bi)的任意形式。
  3. 人们观测到的通常是SSS,例如如下样本A3,B9,B10,A22想推测到底是A还是B生成的,即将熵增加的过程反推回去。即输入时增熵后的值,输出是增熵前的值。
  4. 既然是如上逻辑,就需要满足几个特性:
    1. 迭代:增熵后的值是且仅是由增熵前的值转变而来,即增熵后的输出的原始状态,一定是属于输出的集合(无其他外来力,如果有,必须也包含到输出即增熵前的值中)。。即所有增熵的值必须是从为增熵值迭代而来。且可不断迭代多次。
    2. 并行:一生二,二生三,三生万物。或者进化算法中,每次都改变一点,然后基于上一个状态集合再变一点。----任何一个状态LV1经过一次原子增熵,会生成一堆新状态LV2,新状态再次原子增熵生成LV3。注意,LV1不可直接到LV3,认为必然是经过了了LV2的过程。---增熵有原子操作???
    3. 迭代组成的多层次,即LVX的状态,任何一个LVx+1新状态中的值都可以复用LVx中的任意一个值状态,由于可以复用,避免了组合爆炸问题,即N*M只需要N+M个节点而不是N*M个节点。


以下转载自:https://yjango.gitbooks.io/superorganism/content/shen_ceng_wang_luo.html


深层学习开启了人工智能的新时代。不论任何行业都害怕错过这一时代浪潮,因而大批资金和人才争相涌入。但深层学习却以“黑箱”而闻名,不仅调参难,训练难,“新型”网络结构的论文又如雨后春笋般地涌现,使得对所有结构的掌握变成了不现实。我们缺少一个对深层学习合理的认识。

神经网络并不缺少新结构,但缺少一个该领域的 E=mc2 E=mc2

很多人在做神经网络的实验时会发现调节某些方式和结构会产生意想不到的结果。但就我个人而言,这些发现并不会让我感到满足。我更关心这些新发现到底告诉我们了什么,造成这些现象的背后原因是什么。我会更想要将新的网络结构归纳到已有的体系当中。这也是我更多思考“为何深层学习有效”的原因。下面便是目前YJango关于这方面的见解。

深层神经网络相比一般的统计学习拥有从数学的严谨中不会得出的关于物理世界的先验知识(非贝叶斯先验)。该内容也在Bengio大神的论文和演讲中多次强调。大神也在Bay Area Deep Learning School 2016的Founda'ons and Challenges of Deep Learning pdf(这里也有视频,需翻墙)中提到的distributed representations和compositionality两点就是神经网络和深层神经网络高效的原因(若有时间,强烈建议看完演讲再看该文)。虽然与大神的思考起点可能不同,但结论完全一致(看到Bengio大神的视频时特别兴奋)。下面就是结合例子分析:

  1. 为什么神经网络高效
  2. 学习的本质是什么
  3. 为什么深层神经网络比浅层神经网络更高效
  4. 神经网络在什么问题上不具备优势

其他推荐读物

  • Bengio Y. Learning deep architectures for AI[J]. Foundations and trends® in Machine Learning, 2009, 2(1): 1-127.
  • Brahma P P, Wu D, She Y. Why Deep Learning Works: A Manifold Disentanglement Perspective[J]. 2015.
  • Lin H W, Tegmark M. Why does deep and cheap learning work so well?[J]. arXiv preprint arXiv:1608.08225, 2016.
  • Bengio Y, Courville A, Vincent P. Representation learning: A review and new perspectives[J]. IEEE transactions on pattern analysis and machine intelligence, 2013, 35(8): 1798-1828.
  • Deep Learning textbook by Ian Goodfellow and Yoshua Bengio and Aaron Courville

YJango的整个思考流程都围绕减熵二字进行。之前在《熵与生命》和《生物学习》中讨论过,生物要做的是降低环境的熵,将不确定状态变为确定状态。通常机器学习是优化损失函数,并用概率来衡量模型优劣。然而概率正是由于无法确定状态才不得不用的衡量手段。生物真正想要的是没有丝毫不确定性。

深层神经网络在自然问题上更具优势,因为它和生物学习一样,是找回使熵增加的“物理关系”(知识,并非完全一样),将变体( 2n 2n)转化回因素( n n)附带物理关系的形式,从源头消除熵(假设每个因素只有两种可能状态)。这样所有状态间的关系可以被确定,要么肯定发生,要么绝不发生,也就无需用概率来衡量。因此下面定义的学习目标并非单纯降低损失函数,而从确定关系的角度考虑。一个完美训练好的模型就是两个状态空间内所有可能取值间的关系都被确定的模型。

学习目标:是确定(determine)两个状态空间内所有可能取值之间的关系,使得熵尽可能最低。

:对熵不了解的朋友可以简单记住,事件的状态越确定,熵越小。如绝不发生(概率0)或肯定发生(概率为1)的事件熵小。而50%可能性事件的熵反而大。

为举例说明,下面就一起考虑用神经网络学习以下两个集合的不同关联(OR gate和 XOR gate)。看看随着网络结构和关联的改变,会产生什么不同情况。尤其是最后网络变深时与浅层神经网络的区别。

:选择这种XOR这种简单关联的初衷是输入和输出空间状态的个数有限,易于分析变体个数和熵增的关系。

:用“变体(variation)”是指同一类事物的不同形态,比如10张狗的图片,虽然外貌各异,但都是狗。

问题描述:集合 A A有4个状态,集合 B B有2个状态。0和1只是用于表示不同状态的符号,也可以用0,1,2,3表示。状态也并不一定表示数字,可以表示任何物理意义。

A A= {00,01,10,11} {00,01,10,11}

B B= {0,1} {0,1}

方式1:记忆

  • 随机变量 X X:可能取值是  {00,01,10,11} {00,01,10,11}
  • 随机变量 Y Y:可能取值是  {0,1} {0,1}

    :随机变量(大写 X X)是将事件投射到实数的函数。用对应的实数表示事件。而小写字母 x x表示对应该实数的事件发生了,是一个具体实例。

  • 网络结构:暂且不规定要学习的关联是OR还是XOR,先建立一个没有隐藏层,仅有一个输入节点,一个输出节点的神经网络。

  • 表达式 y=M(x)=ϕ(w1x+b) y=M(x)=ϕ(w1⋅x+b),  ϕ ϕ表示sigmoid函数。
  • 说明:下图右侧中的虚线表示的既不是神经网络的链接,也不是函数中的映射,而是两个空间中,所有可能值之间的关系(relation)。学习的目的是确定这些状态的关系。比如当输入00时,模型要尝试告诉我们00到1的概率为0,00到0的概率为1,这样熵 H(X)=ipi(x)logpi(x) H(X)=−∑ipi(x)logpi(x)才会为零。
  • 关系图:左侧是网络结构,右侧是状态关系图。输入和输出空间之间共有8个关系(非箭头虚线表示关系)。除非这8个关系对模型来说都是相同的,否则用 wh1 wh1表示 f:XY f:X→Y时的熵 H(M(X),X) H(M(X),X)就会增加。( wh1 wh1无法照顾到8个关系,若完美拟合一个关系,其余的关系就不准确)

    :这里YJango是 wh1 wh1用表示 ϕ(wh1x+b) ϕ(wh1⋅x+b)的缩写。

  • 数据量:极端假设,若用查找表来表示关系:需要用8个不同的 (x,y) (x,y)数据来记住想要拟合的 f:XY f:X→Y

方式2:手工特征

  • 特征:空间 A A的4个状态是由两个0或1的状态共同组成。我们可以观察出来(计算机并不能),我们利用这种知识 k() k() A A中的状态分解开(disentangle)。分解成两个独立的子随机变量 H1={0,1} H1={0,1} H2={0,1} H2={0,1}。也就是用二维向量表示输入。
  • 网络结构:由于分成了二维特征,这次网络结构的输入需改成两个节点。下图中的上半部分是,利用人工知识 k() k()将随机变量 X X无损转变为 H1 H1 H2 H2的共同表达(representation)。这时 h1 h1 h2 h2一起形成网络输入。

    k() k()旁边的黑线(实线表示确定关系)并非是真正的神经网络结构,只是方便理解,可以简单想象成神经网络转变的。

  • 表达式 y=M(h)=ϕ(Whh+b) y=M(h)=ϕ(Wh⋅h+b)

    :方便起见, wh1h1+wh2h2 wh1⋅h1+wh2⋅h2写成了矩阵的表达形式 Whh Wh⋅h,其中 b b是标量,而 Wh Wh= [wh1wh2] [wh1wh2] h⃗  h→= [h1h2] [h1h2]

  • 关系图:由于 k() k()固定,只考虑下半部分的关系。因为这时用了两条线 wh1 wh1 wh2 wh2来共同对应关系。原本需要拟合的8个关系,现在变成了4个(两个节点平摊)。同样,除非右图的4条红色关系线对 wh1 wh1来说相同,并且4条绿色关系线对 wh2 wh2来说也相同,否则用 wh1 wh1 wh2 wh2表示 f:XY f:X→Y时,一定会造成熵 H(M(X),X) H(M(X),X)增加。

    :下图中左侧是网络结构图。右侧关系图中,接触的圆圈表示同一个节点的不同变体。分开的、并标注为不同颜色的圆圈表示不同节点,左右两图连线的颜色相互对应,如红色的 wh1 wh1需要表示右侧的4条红色关系线。

  • 关联1:下面和YJango确定想要学习的关联(函数)。如果想学习的关联是只取 H1 H1或者 H2 H2的值,那么该结构可以轻松用两条线 wh1 wh1 wh2 wh2来表达这4个关系(让其中一条线的权重为0,另一条为1)。

  • 关联2:如果想学习的关联是或门,真值表和实际训练完的预测值对照如下。很接近,但有误差。不过若要是分类的话,可以找到0.5这个超平面来分割。大于0.5的就是1,小于0.5的就是0,可以完美分开。

    :第一列是输入,第二列是真实想要学习的输出,第三列是训练后的网络预测值。

  • 关联3:如果想学习的关联是异或门(XOR),真值表和实际训练完的预测值对照如下。由于4条关系线无法用单个 w w表达,该网络结构连XOR关联的分类都无法分开。

  • 数据量:学习这种关联至少需4个不同的 ([h1,h2],y) ([h1,h2],y)来拟合 fhy:HY fhy:H→Y。其中每个数据可以用于确定2条关系线。

方式3:加入隐藏层

  • 网络结构1:现在直接把 h1 h1 h2 h2作为输入(用 x1,x2 x1,x2表示),不考虑 k() k()。并且在网络结构中加入一个拥有2个节点(node)隐藏层(用 h1,h2 h1,h2表示)。
  • 表达式 y=M(x)=ϕ(Whϕ(Wxx+bx)+bh) y=M(x)=ϕ(Wh⋅ϕ(Wx⋅x+bx)+bh)
  • 关系图1:乍一看感觉关系更难确定了。原来还是只有8条关系线,现在又多了16条。但实际上所需要的数据量丝毫没有改变。因为以下两条先验知识的成立

    :下图最右侧是表示:当一个样本进入网络后,能对学习哪些关系线起到作用。

  • 1. 并行 fxh1 fxh1: X1,X2H1 X1,X2→H1 fxh2 fxh2: X1,X2H2 X1,X2→H2的学习完全是独立并行。这就是神经网络的两条固有先验知识中的:并行:网络可以同时确定 fxh1 fxh1 fxh2 fxh2的关联。也是Bengio大神所指的distributed representation。

    :有效的前提是所要学习的状态空间的关联是可以被拆分成并行的因素(factor)。

    fhy fhy: H1,H2Y H1,H2→Y就没有并行一说,因为 Y Y是一个节点拥有两个变体,而不是两个独立的因素。但是也可以把 Y Y拆开表示为one-hot-vector。这就是为什么分类时并非用一维向量表示状态。更验证了YJango在机器学习中对学习定义:学习是将变体拆成因素附带关系的过程。

  • 迭代:第二个先验知识是:在学习 fhy fhy: H1,H2Y H1,H2→Y同时 fxh1 fxh1: X1,X2H1 X1,X2→H1 fxh2 fxh2: X1,X2H2 X1,X2→H2也可以被学习。这就是神经网络的两条固有先验知识中的:迭代:网络可以在确定上一级的同时确定下一级的所有内容。也是Bengio大神所指的compositionality。

    :有效的前提是所要学习的空间的关联是由上一级迭代形成的。所幸的是,我们所生活的世界几乎都符合这个前提(有特殊反例)。

  • 关联:如果想学习的关联是异或门(XOR),真值表和实际训练完的预测值对照如下。

    fxh1 fxh1 fxh2 fxh2:期初若用两条网络连接表示 X1,X2H1,H2 X1,X2→H1,H2的16个关系可能,那么熵会很高。但用两条线表示 X1,X2H1 X1,X2→H1的8个关系,模型的熵可以降到很低。下图中 fxh1 fxh1的输出值对应红色数字。 fxh2 fxh2对应输出值是由蓝色数字表达。

    fhy fhy:这时再看 H1,H2Y H1,H2→Y的关系,完全就是线性的。光靠观察就能得出 f(h1,h2) f(h1,h2)的一个表达。

  • 数据量:如关系图1中最右侧图所示,一个输入 [0,0] [0,0]会被关联到 0 0。而这个数据可用于学习 2+4 2+4个关系。也就是说网络变深并不需要更多数据

模型的熵 H(M(X),X) H(M(X),X)与用一条 ϕ(w1x+b) ϕ(w1⋅x+b)所要拟合的关系数量有关。也就是说,

变体(variation)越少,拟合难度越低,熵越低。

  • 网络结构2:既然这样, X X有4个变体,这次把节点增加到4。
  • 关系图2:与网络结构1不同,增加到4个节点后,每个节点都可以完全没有变体,只取一个值。想法很合理,但实际训练时,模型不按照该方式工作。

    :太多颜色容易眼花。这里不再用颜色标注不同线之间的对应关系,但对应关系依然存在。

    • 问题:因为会出现右图的情况:只有两个节点在工作(线的粗细表示权重大小)。 a a c c的节点在滥竽充数。这就跟只有两个节点时没有太大别。原因是神经网络的权重的初始化是随机的,数据的输入顺序也是随机的。这些随机性使得权重更新的方向无法确定。

      讨论:网络既然选择这种方式来更新权重,是否一定程度上说明,用较少的节点就可以表示该关联?并不是,原因在于日常生活中的关联,我们无法获得所有变体的数据。所得数据往往是很小的一部分。较少的节点可以表示这一小部分数据的关联,但却无法涵盖所有变体情况。造成实际应用时效果不理想。

    • 缓解:缓解的方式有L2正则化(L2 regularization):将每层权重矩阵的平方和作为惩罚。

      • 表达式 λ/2ww2 λ/2⋅∑ww2 λ λ是惩罚的强弱,可以调节。除以2是为了求导方便(与后边的平方抵消)。
      • 意义:当同一层的权重有个别值过高时,平方和就会增加。而模型在训练中会降低该惩罚。产生的作用是使所有权重平摊任务,让 a,b,c,d a,b,c,d都有值。以这样的方式来使每个节点都工作,从而消除变体,可以缓解过拟合(overfitting)。
      • 例如 L2(Why)=λ/2w2hy1+w2hy2+w2hy3+w2hy4 L2(Why)=λ/2⋅(why12+why22+why32+why42)

具有一个隐藏层的神经网络可以模拟任何函数,最糟的情况需要 kn kn个节点。

也叫Universal Approximation Theorem。但最糟的情况是输入空间有多少个变体,就需要多少个节点。 k k表示独立因素的变体个数, n n表示独立因素的个数。上述的例子中最糟的情况需要 22 22个隐藏节点。而代价也是需要 kn kn个不同数据才可以完美拟合。

引入Christopher Olah在博客中的描述

Universality means that a network can fit to any training data you give it. It doesn’t mean that it will interpolate to new data points in a reasonable way.出处

也就是说一个具有隐藏层的神经网络可以拟合任何训练数据,但是并不意味着能够合理预测未见过的数据。若需要见过所有情况才能够良好的预测,那就无法达到学习的目的。(学习就是为了从有限的样本中提取出规律来预测未见过的样本)

  • 使用条件:浅层神经网络可以分开几乎所有自然界的关联。因为神经网络最初就是由于可移动的生物需要预测未来事件所进化而来的。所学习的关联是过去状态到未来状态。如下图,物理中的力也可以分离成两个独立的分力来研究。

但有一种不适用的情况:非函数。

  • 实例:函数的定义是:每个输入值对应唯一输出值的对应关系。为什么这么定义函数?对应两个以上的输出值在数学上完全可以。但是在宏观的世界发展中却不常见。如下图:

  • 时间顺流:不管从哪个起点开始,相同的一个状态(不是维度)可以独立发展到多个不同状态(如氧原子可演变成氧分子和臭氧分子)。也就热力学第二定律的自发性熵增:原始状态通过物理关系,形成更多变体。

  • 时间倒流:宏观自然界中难以找到两个以上的不同状态共同收回到一个状态的例子(如氧分子和臭氧分子无法合并成氧原子)。如果这个可以实现,熵就会自发性减少。也就不需要生物来消耗能量减熵。我们的房间会向整齐的状态发展。但这违背热力学第二定律。至少在我们的宏观世界中,这种现象不常见。所以进化而来的神经网络可以拟合任何函数,但在非函数上就没有什么优势。毕竟生物的预测是从过去状态到未来状态。也说明神经网络并不违背无免费午餐定理

    • 实例:XOR门的输入空间和输出空间若互换位置,则神经网络拟合出来的可能性就非常低(并非绝对无法拟合)。

方式4:继续加深

浅层神经网络可以模拟任何函数,但数据量的代价是无法接受的。深层解决了这个问题。相比浅层神经网络,深层神经网络可以用更少的数据量来学到更好的拟合。上面的例子很特殊。因为 22=4 2∗2=4 22=4 22=4,比较不出来。下面YJango就换一个例子,并比较深层神经网络和浅层神经网络的区别。

  • 问题描述:空间 A A有8个可能状态,空间 B B有2个可能状态:

    A A= {0,1,2,3,4,5,6,7} {0,1,2,3,4,5,6,7}

    B B= {0,1} {0,1}

  • 网络结构

    • 浅层神经网络:8节点隐藏层
    • 深层神经网络:2节点隐藏层  + + 3节点隐藏层
  • 深浅对比

    浅层神经网络:假如说输入3和输出0对应。数据 (3,0) (3,0)只能用于学习一个节点(如 h1 h1)前后的两条关系线。完美学习该关联需要所有8个变体。然而当变体数为10^10时,我们不可能获得10^10个不同变体的数据,也失去了学习的意义。毕竟我们是要预测没见过的数据。所以与其说这是学习,不如说这是强行记忆。好比一个学生做了100册练习题,做过的题会解,遇到新题仍然不会。他不是学会了做题,而是记住了怎么特定的题。

    深层神经网络:如果只观察输入和输出,看起来同样需要8个不同的 (x,y) (x,y)训练数据。但不同 (x,y) (x,y)之间有共用部分。比如说,在确定3和0关系时,也同时对所有共用 w1,w2,w3 w1,w2,w3连接的其他变体进行确定。这样就使得原本需要8个不同数据才能训练好的关联变成只需要3,4不同数据个就可以训练好。(下图关系线的粗细并非表示权重绝对值,而是共用度

  • 深层的前提:使用浅层神经网络好比是用 y=ax+b y=ax+b a,b a,b,需要2个不同数据。而深层神经网络好比用 y=ax y=ax a a,只需要一个数据。无免费午餐定理告诉我们,优化算法在一个任务上优秀,就一定会在其他任务上有缺陷,深层同样满足该定理。如果用 y=ax y=ax去解实际上有 b b y=ax+b y=ax+b,或者去解实际为 y=ax2+bx+c y=ax2+bx+c的关联时,搜索效果只会更差。所以深层的前提是: X X空间中的元素可以由 Y Y迭代发展而来的。换句话说 X X中的所有变体,都有共用根源 Y Y(root)。

  • 我们的物理世界:幸运的是,我们的物理世界几乎都满足迭代的先验知识。

    • 实例:比如进化。不同动物都是变体,虽然大家现在的状态各异,但在过去都有共同的祖先。

    • 实例:又如细胞分裂。八卦中的8个变体是由四象中4个变体的基础上发展而来,而四象又是由太极的2个变体演变而来。很难不回想起“无极生太极,太极生两仪,两仪生四象,四象生八卦”。(向中国古人致敬,虽然不知道他们的原意)

学习的过程是因素间的关系的拆分,关系的拆分是信息的回卷,信息的回卷是变体的消除,变体的消除是不确定性的缩减。

自然界两个固有的先验知识

并行:新状态是由若干旧状态并行组合形成。

迭代:新状态由已形成的状态再次迭代形成。

为何深层学习:深层学习比浅层学习在解决结构问题上可用更少的数据学习到更好的关联。


随后的三篇文章正是用tensorflow实现上述讨论的内容,以此作为零基础实现深层学习的起点。

最后总结一下开篇的问题:

  1. 为什么神经网络高效:并行的先验知识使得模型可用线性级数量的样本学习指数级数量的变体
  2. 学习的本质是什么:将变体拆分成因素和知识(Disentangle Factors of Variation)

  3. 稀疏表达:一个矩阵被拆分成了稀疏表达和字典。

    +

  4. one hot vector:将因素用不同维度分开,避免彼此纠缠。
    1. 为什么深层神经网络比浅层神经网络更高效:迭代组成的先验知识使得样本可用于帮助训练其他共用同样底层结构的样本。
    2. 神经网络在什么问题上不具备优势:不满足并行与迭代先验的任务
  5. 非函数:需要想办法将问题转化。
  6. 非迭代:该层状态不是由上层状态构成的任务(如:很深的CNN因为有max pooling,信息会逐渐丢失。而residual network再次使得迭代的先验满足)

到此我们讨论完了神经网络最基础的,也是最重要的知识。在实际应用中仍会遇到很多问题(尤其是神经网络对noise的克服更加巧妙)。随后YJango会再和大家一起分析过深后会产生什么效果,并一步步引出设计神经网络的本质


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值