最新论文阅读(8)--DiracNets: Training Very Deep Neural Networks Without Skip-Connections

DiracNets: Training Very Deep Neural Networks Without Skip-Connections

- 2017年6月   
- 提出NCReLU和Dirac参数化,它适用于广泛的网络架构
- ParisTech(巴黎高科,一个小学校)

  提出新的权重参数化(weight parameterization)方法,即Dirac参数化,它适用于广泛的网络架构。
提出NCReLU,类似CReLU。
  论文中,实验了没有使用跳层连接的Diracnet(VGG-like),发现它在34层的时候就好于resnet101。
  
  Dirac参数化:
这里写图片描述
这里写图片描述

  NCReLU:
  这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值