[深度学习论文笔记][Weight Initialization] Data-dependent Initializations of Convolutional Neural Networks

本文探讨了深度学习中卷积神经网络(CNN)的数据依赖初始化方法,包括减弱激活、全局缩放等策略。通过特定算法,确保不同通道经过相同变换,输出通道遵循相同分布,从而稳定网络训练。此外,提出希望每一层权重以相似速率变化,以维持全局尺度的平衡。参考了J. Donahue和T. Koller的相关研究。
摘要由CSDN通过智能技术生成
Krhenbhl, Philipp, et al. “Data-dependent initializations of convolutional neural networks.” arXiv preprint arXiv:1511.06856 (2015). [Citations: 10].


1 Attenuating Activations

[Idea] Initialize W ’s such that activations have unit variance.


[Algorithm] See Alg. 1



[Analysis] This algorithm works for nonlinearities (such as ReLU and pooling).
• The different channels will undergo the same transformation.
• Then the output channels will follow the same distribution if the input channels do.
• The changed variance will be fixed by the next layer.


2 Global Scaling
[Motivation] The output follow the same distribution per layer. But what about the global

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值