【DSN】Deeply-Supervised Nets

深度监督网络(DSN)旨在使隐藏层学习更直接和透明,减少分类错误,提高特征的鲁棒性和区分性。通过引入伴随目标到每个隐藏层,DSN在MNIST, CIFAR-10, CIFAR-100, SVHN等数据集上取得了优于先前最佳结果的表现。DSN结构结合了CNN和SVM,优化了整体损失和伴随损失,解决了梯度消失和爆炸问题,且能更快收敛。" 103274467,1201153,理解UniRx:序列操作Sample、Scan、Switch等详解,"['C#', 'Unity', '编程', '异步', 'Rx']
摘要由CSDN通过智能技术生成

在这里插入图片描述
这是一篇2014年的论文,还是有点年代感的,因为在Unet++中有使用到深度监督的思想,所以来打个卡。

概述


  • 设计目的?
    • 让隐藏层的学习过程可以更加直接(direct)和透明(transparent)。
    • 减少分类的错误。
    • 让学习的特征更加的鲁棒性和discriminativeness(易区分的,独特的)
    • 更好的解决梯度爆炸和梯度消失的问题。
  • 如何做,内容?
    • Introduce Companion objective to hidden layer(类正则化)
  • Results
    • 使用的数据集Benchmark dataset:MNIST, CIFAR-10, CIFAR-100, SVHN。
    • 在以上数据集取得了比以往的state-of-the-art results更好的结果。
  • 对当时DL framework的问题总结?
    • 1、中间隐藏层在训练时候的不透明
    • 2、梯度消失和梯度爆炸
    • 3、算法缺乏全面的数学理解
    • 4、依赖于大量的数据
    • 5、手工调整网络的复杂性

细节部分


1、Motivation

结构上是将SVM模型不止在output层上而是接在每一个层上。

  • 分类器在highly discriminative features上训练会得到一个更好的结果。
  • properties of companion objective:
    • 可以表现出正则化的性质,在不牺牲训练准确率的情况下提高了测试集合的准确率。
    • 可以更快的收敛,特别是在小训练集上。

2、结构

  • 基础结构还是和标准的CNN框架一样。然后在output和隐藏层增加SVM model或者Softmax。这样就是DSN-SVM,和DSN-Softmax。【早期已经有了将CNN和SVM结合起来的paper,但是动机和这篇paper的不一样。】

3、Formulation

  • CNN weights: W = ( W ( 1 ) , . . . , W ( M ) ) W=(W^{(1)}, ..., W^{(M)}) W=(W(1),...,W
  • 6
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值