神经网络中的知识蒸馏

在这里插入图片描述
多分类交叉熵损失函数:每个样本的标签已经给出,模型给出在三种动物上的预测概率。将全部样本都被正确预测的概率求得为0.70.50.1,也称为似然概率。优化的目标就是希望似然概率最大化。如果样本很多,概率不断连乘,就会造成概率越来越小。对其取对数,使其最大化。在实际运用中,损失函数都是求最小化,所以取负号,将最大化变为最小化。

教师–学生网络的方法,属于迁移学习的一种。迁移学习也就是将一个模型的性能迁移到另一个模型上,而对于教师–学生网络,教师网络往往是一个更加复杂的网络,具有非常好的性能和泛化能力,可以用这个网络来作为一个soft target来指导另外一个更加简单的学生网络来学习,使得更加简单、参数运算量更少的学生模型也能够具有和教师网络相近的性能,也算是一种模型压缩的方式。将教师网络的知识迁移到学生网络,就是知识蒸馏。

知识蒸馏:用教师网络的“soft target”作为学生网络的label。使用一个额外的数据集,将数据集先送入教师网络中,获得soft target。 将数据集和label送入学生网络。如果 soft target的熵很高,也就是不同类别的概率差异非常小,那么这就提供了非常多的信息。假如使用hard target作为训练label,比如猫的label为(1,0,0),那么网络只能学习到猫的梯度,而在soft target,可以得出猫和狗更像,和汽车不像。
在这里插入图片描述

流程:

T越大,输入的结果越soft,包含的知识也就越多。在训练的时候,教师网络和学生网络的T相同,在预测的时候,T为1。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
融合图神经网络知识蒸馏是一种将知识图谱和图神经网络相结合的方法,用于提高图神经网络的性能和泛化能力。这种方法通过将知识图谱的结构和语义信息融入到图神经网络的训练过程,从而使得图神经网络能够更好地理解和利用图数据的关系信息。 具体而言,融合图神经网络知识蒸馏可以分为以下几个步骤: 1. 构建知识图谱:首先,需要构建一个包含实体和关系的知识图谱。实体可以是图的节点,关系可以是节点之间的边。知识图谱可以通过手动构建或者自动抽取的方式得到。 2. 图神经网络的训练:接下来,使用已有的图数据和标签来训练图神经网络。图神经网络是一种能够处理图数据的神经网络模型,它可以通过学习节点之间的关系来进行节点分类、链接预测等任务。 3. 知识蒸馏:在图神经网络训练完成后,将知识图谱的结构和语义信息融入到图神经网络。这可以通过将知识图谱的节点和边作为额外的输入特征,或者通过设计特定的损失函数来实现。 4. 性能评估:最后,使用测试数据对融合了知识图谱的图神经网络进行性能评估。可以通过计算准确率、召回率等指标来评估模型的性能。 通过融合图神经网络知识蒸馏,可以提高图神经网络在节点分类、链接预测等任务的性能和泛化能力,使其能够更好地利用图数据的关系信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值