G.Hinton Dark Knowledge

Model Compression

Caruana06的文章,提出了一种压缩compressing大规模复杂网络的方法,对模型进行压缩与加速,同时不会明显损失精度。作者首先提到了ensemble model的方法,即利用多个模型预测输出的加权平均或投票的方法来代替单个模型的输出结果。传统方法中,这样的算法思路很常见,例如,特征袋,随机森林,boosting算法等。但是对于神经网络模型来说,大量模型的聚合需要消耗大量的存储空间和计算能耗。Caruana提出一种将大模型学习到的函数压缩进更小更快的模型,而获得可以匹敌大模型结果的方法。提出了MUNGE的数据增强办法,并与RANDOM和NBT算法比较。

Distilling the Knowledge in a Neural Network

Distillation:作者说利用该方法去迁移知识,从而通过训练好的大模型得到更加适合测试的小模型,作者自己也说其实这个思路早在06年就有人提出来了,就是上面提到的那位。
有个细节,Hinton说利用原始训练数据训练small model效果最好,尤其是在目标函数里加入cumbersome的soft targets输出匹配度。
反向传播时,目标函数更新的方法就是加入这样一项:计算small与cumbersome两个模型的交叉熵(cross-entropy)。
dark knowledge主要利用在两个方面
一, hard target –就是label信息
a) N维的softmax输出是除了一个1其他全是0的N维向量
二, soft target –是由已经训练好的model的出来的对Unlabeled数据各个类别的probability信息。

一.模型压缩
这个思想,早在2006 caruana提出过吗,见前文。在很多竞赛时,会利用不同的网络架构,不同的初始化或者不同的训练数据等,来学习到很多网络模型,然后combine 多个model来提高performance。 如何训练一个模型,达到这个combine model的效果呢? 这里提到的模型压缩是指:原来包括在参加一些竞赛时,用到的模型都是通过训练大量不同的模型,得到每个模型的输出,然后combine他们,这样取得的效果较好(ensemble方法),但是这样训练大量网络包含大量的参数。因此Hinton说,当训练得到这么一个ensemble网络之后,假设该网络性能已经足够好了,
Transfer learning,作者举了迁移学习MNIST的例子,
二.专家网络的学习
类似于一种subcategory的思想,用k-means把容易混淆的一些类聚合在一起,然后针对某些易混淆的类别,进行专家网络的学习。当然要解决的问题便是overfitting策略,参考6.1
Hinton说,soft Targets(ST)是一种正则器。他说之所以用ST是因为ST比hardtarget包含更多的信息。利用HT很容易过拟合。
无论是模型压缩,还是在专家网络学习,都提到了基于soft target和hard target两种目标函数。
其中在soft target时,用到了raise the temperature策略,来提高soft target对应的cross entropy。在进行模型压缩的时候,我们利用hard target 和soft target的loss function sum,来训练单一模型,努力达到很多模型combine的结果。在进行专家网路训练的时候,利用hard target loss来优化易混淆的某一子类,用soft target loss来优化其他所有类。

作者在MNIST上实验验证的结果是,采用784 -> 800 -> 800 -> 10的small网络,得到的误差是146个错误,784 -> 1200 -> 1200 -> 10,cumbersome模型的错误是67个,明显性能提升了。接下来采用作者提到的迁移学习方法,使用soft targets,784 -> 800 -> 800 -> 10网络的性能提升到74个错误。作者总结,对于这个small的net几乎包含了cumbersome model的所有知识。
作者在该试验中,总计:soft targets可以将原来大规模模型的知识迁移给distilled model。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 10
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值