Neural Networks for Machine Learning by Geoffrey Hinton (4)

一种可以学习家谱关系的简单神经网络

血缘一共有12种关系:

son, daughter, nephew, niece, father, mother, uncle, aunt, brother, sister, husband, wife

有1个英国家庭以及1个意大利家庭,每个家庭有12个人。各种家庭关系都是可用三元数组表示,即( Agent / Relation / Patient ) 结构:

  • (colin has-father james)
  • (colin has-mother victoria)
  • (james has-wife victoria) 可以由上述关系推导得到

该网络由5层结构组成,如图1所示


图1
图1

  • 网络底层左右两边各有12个神经元。
  • 第1层左侧神经元输入 Agent 向量,每次只有一个为1,如000100000000。
  • 第1层右侧神经元输入 Relation 向量,每次也只有一个为1。
  • 第2层左侧神经元用来序列化 Agent 向量,右侧神经元用来序列化 Relation 向量。
  • 第3层用以学习 Agent 与 Relation 的关系,预测出 Patient。
  • 第4层解析出 Patient 向量。
  • 第5层是预测出的实际 Patient,其每次的激活值可能不只一个。
    例如:Andrew has-aunt ? 可能对应多个 aunt。

网络学到了什么?

以序列化输入 Agent 的 6 个神经元为例,如图2.
- 1号神经元对不同国籍的输入很敏感,能够进行区分。
- 2号神经元对每次输入 Agent 所属的辈分(Generation)很敏感。
- 6号神经元对每次输入 Agent 所属的家庭很敏感。


这里写图片描述
图2

关于 概念(Concepts) 的两种理论

  • 特征理论(The Feature Theory)

    概念是语义特征的集合。
    A concept is a set of semantic features.


因此概念就能够 用特征的向量来表示
  • 结构主义理论(The Structuralist Theory)

    概念的意义存在于概念与概念之间的关系。
    The meaning of a concept lies in its relationships to other concepts.


因此概念可以 用关系图模型表达。 Hinton 认为 *Both sides are wrong* ,因为

神经网络可以使用语义特征来实现关系图模型

Softmax 输出函数

均方误差有以下缺陷
  • 如果目标是1而现在的实际输出是0.00000001,那么返回给神经元的梯度几乎为0.
  • 强制指定所属各类概率就会剥夺网络的学习能力。
    Softmax作为逻辑回归的推广,能够很好解决这些问题。

构造公式

yi=ezijgroupezi

梯度公式

yizi=yi(1yi)

代价函数依然使用相互熵

dC / dy 的陡峭正好抵消了 dy / dz 的平坦。

相互熵

C=jtjlogyj

梯度

Czi=jCyjyjzi=yiti

Theano相应函数

x,y,b = T.dvectors('x','y','b')
W = T.dmatrix('W')
y = T.nnet.softmax(T.dot(W,x) + b)
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
混合图神经网络用于少样本学习。少样本学习是指在给定的样本数量非常有限的情况下,如何进行有效的学习和分类任务。混合图神经网络是一种结合了图神经网络和其他模型的方法,用于解决少样本学习问题。 首先,混合图神经网络将图神经网络与其他模型结合起来,以充分利用它们在不同任务上的优势。图神经网络可以有效地处理图结构数据,并捕捉节点之间的关系,而其他模型可能在处理其他类型的数据时更加优秀。通过将它们结合起来,混合图神经网络可以在少样本学习中更好地利用有限的数据。 其次,混合图神经网络可以通过在训练过程中使用一些预训练模型来提高学习效果。预训练模型是在大规模数据集上进行训练得到的模型,在特定任务上可能有较好的性能。通过将预训练模型与图神经网络结合,混合图神经网络可以在少样本学习中利用预训练模型的知识,以更好地适应有限的数据。 最后,混合图神经网络还可以通过设计适当的注意力机制来提高学习效果。注意力机制可以使网络更加关注重要的特征和关系,忽略无关的信息。在少样本学习中,选择性地关注有限的样本和特征对于提高学习的效果至关重要。混合图神经网络可以通过引入适当的注意力机制来实现这一点,以提取和利用关键信息。 综上所述,混合图神经网络是一种用于少样本学习的方法,它结合了图神经网络和其他模型的优势,并利用预训练模型和适当的注意力机制来提高学习效果。这种方法对于在有限数据条件下执行有效的学习和分类任务非常有帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值