关于DBN fine-tunes使用BP多于up-down算法的一点看法

首先用Hinton先生的三句话作为引子,个人觉得这三句话在为什么首先使用pre-train会使最终效果特别好的解释中有点提纲挈领的意思。


– The input vectors generally contain a lot more information than the labels.
– The precious information in the labels is only used for the final fine-tuning.
– The fine-tuning only modifies the features slightly to get the category boundaries right. It does not need to discover features.


好吧,其实写这篇博客的原因就是为了记一下上面三句话。关于为啥不使用UP-DOWN算法,我觉得是你作为一个生成模型,当然可以使用UP-DOWN,这个算法本意就是用来训练生成模型的。但是为什么现在的大多数toolbox都是将网络pre train之后使用BP算法去微调呢,个人觉得生成模型最终用起来也是要作判别的。所以还不如直接使用判别模型去做分类,当模型被当成判别模型的时候使用BP算法。而且Hinton先生也分别使用过这两种算法做了对比,分别是在deep learning开篇的那篇论文中和他发在science上的那篇论文。一个使用了UP-DOWN,一个使用了BP。事实上,使用判别模型的分类效果更好,而UP-DOWN略差。

-------------------------------------------------------------------------------------------------------------------------------------------------------------------

个人理解,可能是漏洞百出或者根本就是错的。如果理解上有不对的地方,烦请指正。邮箱:heqingblind@sina.com

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值