最新论文阅读(2)

#Training RNNs as Fast as CNNs
- 2017年9月
- Simple Recurrent Unit(SRU); NLP与语音识别任务; 加速
- ASAPP inc;MIT
  通过有意简化状态计算并展现更多的并行性而提出了一个替代性的 RNN 实现,这一循环单元的运算和卷积层一样快,并且比 cuDNN 优化的 LSTM 快 5-10x。
  该实现在诸如分类、问题回答、语言建模、机器翻译上证明了其有效性,并已在 PyTorch 和 CNTK1 中开源。
  SRU实现:循环层之间增加highway连接;在将RNN正则化时,他们在标准的dropout外,增加了变分dropout(变分dropout在时间步长t与dropout使用相同的mask。然后,作者将和步骤t的神经门之间的连接全部丢弃,以这种方法来加速循环计算。相比之下,现有的RNN在实现时是要使用先前的输出状态的)。


#CNN-BLSTM(convolutional neural network combined with bidirectional long-short-term memory)
-
- Switchboard数据集上5.1%;语音识别
- Microsoft


#Stacked Deconvolutional Network for Semantic Segmentation
- 2017年8月
- 没有特别的;就是把各种花样强行组合起来
-

提出了堆叠解卷积网络(SDN);效果与其他语义分割网络相比最好;
  stack(堆叠)的思想 + Densenet + FCN+hierarchical supervision


#Accelerated Stochastic Greedy Coordinate Descent by Soft Thresholding Projection onto Simplex
- NIPS 2017 Spotlight
- 贪心坐标下降 (Greedy Coordinate Descent, GCD)
-

翻译过来就是,“通过在单纯形上软门限投影的加速随机贪心坐标下降”。GCD 被广泛用于机器学习里的求解稀疏优化的问题中。如果一个优化问题具有稀疏解,GCD 将比和它对应的算法 RCD 更为适合。"


#Enhanced Deep Residual Networks for Single Image Super-Resolution
- 2017年7月
- enhanced deep super-resolution network —— EDSR;训练方法;多尺度深度超分辨率 MDSR
- 韩国首尔大学

优化时去除了传统残差网络中的不必要模块。另一个原因就是,在使训练过程保持稳定的情况下,我们扩展了模型的规模。
  NTIRE2017 超分辨率挑战赛的冠军和亚军;
  过采用残差缩放(residual scaling )方法来对大型模型进行稳定的训练。
  去掉了BN和网络中的范围柔性(range flexibility)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值