Neural Networks for Machine Learning by Geoffrey Hinton (3)

本文是Geoffrey Hinton关于神经网络机器学习系列的第三部分,探讨了训练感知机与隐含层的不同,解释了为什么不能直接解析求解神经网络,以及在线学习与批学习的区别。文章还讨论了学习过程缓慢的原因,并介绍了反向传播的思想和优化策略,如weight decay、dropout等。
摘要由CSDN通过智能技术生成

Neural Networks for Machine Learning by Geoffrey Hinton (3)

训练感知机的方法并不能用以训练隐含层

  • 训练感知机的方式是每次直接修正权重,最终得到满足所有凸锥里的权重。可行解的平均一定还是可行解。
  • 对多层神经网络而言,2个可行解的平均并不一定是可行解。
    They should never have been called multi-layer perceptrons.

为何不解析求解神经网络?

  • 我们希望了解神经网络具体工作方式。
  • 我们需要能够扩展到深层神经网络的方法。

online delta-rule 与 感知机 learning rule 的区别与联系

  • 感知机 learning rule 中,我们通过输入向量直接改变权重向量。

    然而我们只能在出现错误时才能够调整权重。

  • online delta-rule 中,权重的修正量还带有残差和学习率作为系数。

    Δwi=εEwi=nεxni(tnyn)

错误面(Error Surface)

对于线性神经元、平方误差时,错误面是一个抛物面
- 错误面的纵切面是抛物线。
- 错误面的横切面是椭圆。

在线(Online)学习与批(Batch)学习

  • 在线学习权重在走之字形路线,如图1。

图1

  • 批学习权重路线要平缓得多,如图2。

图2

为何学习过程会这么慢?

在权重空间某2个维度具有一定的相关性时,错误面会被拉长,其横剖面就变成了一个长椭圆,如图3。

图3

与我们希望刚好相反,如图的红色向量在短轴方向有巨大分量,而在长轴方向分量却很小。

为什么对于多层神经网络直接学习权重是不可行的?<

混合图神经网络用于少样本学习。少样本学习是指在给定的样本数量非常有限的情况下,如何进行有效的学习和分类任务。混合图神经网络是一种结合了图神经网络和其他模型的方法,用于解决少样本学习问题。 首先,混合图神经网络将图神经网络与其他模型结合起来,以充分利用它们在不同任务上的优势。图神经网络可以有效地处理图结构数据,并捕捉节点之间的关系,而其他模型可能在处理其他类型的数据时更加优秀。通过将它们结合起来,混合图神经网络可以在少样本学习中更好地利用有限的数据。 其次,混合图神经网络可以通过在训练过程中使用一些预训练模型来提高学习效果。预训练模型是在大规模数据集上进行训练得到的模型,在特定任务上可能有较好的性能。通过将预训练模型与图神经网络结合,混合图神经网络可以在少样本学习中利用预训练模型的知识,以更好地适应有限的数据。 最后,混合图神经网络还可以通过设计适当的注意力机制来提高学习效果。注意力机制可以使网络更加关注重要的特征和关系,忽略无关的信息。在少样本学习中,选择性地关注有限的样本和特征对于提高学习的效果至关重要。混合图神经网络可以通过引入适当的注意力机制来实现这一点,以提取和利用关键信息。 综上所述,混合图神经网络是一种用于少样本学习的方法,它结合了图神经网络和其他模型的优势,并利用预训练模型和适当的注意力机制来提高学习效果。这种方法对于在有限数据条件下执行有效的学习和分类任务非常有帮助。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值