[深度学习论文笔记][Weight Initialization] Random walk initialization for training very deep feedforward netw

本文探讨了深度学习中梯度消失问题,并提出线性随机初始化策略。通过确保权重矩阵的每一层从N(0, 1/n)分布中初始化,使神经网络在反向传播过程中避免梯度消失。对于ReLU激活函数,文章介绍了等效形式,即随机设置部分权重为0,从而保持梯度比例在理想范围内,进一步解决梯度消失问题。并讨论了最优的初始化方差选择。" 27330899,203038,Elasticsearch集群状态查询指南,"['搜索引擎', '大数据', '全文检索', 'Elasticsearch', '数据管理']
摘要由CSDN通过智能技术生成
Sussillo, David, and L. F. Abbott. “Random walk initialization for training very deep feedforward networks.” arXiv preprint arXiv:1412.6558 (2014). [Citations: 3].


1 Motivation

[Motivation] Gradient vanishing problem.


[Idea] Keep the gradient norm the same during backprop.


2 Linear Random Walk Initialization

[Network Form]



[Backprop]



[Simplifications]

• All layers have same width n .
• Initialize each W^(l) from N(0,

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值