神经网络优化(初始化权重)

因为传统的初始化权重问题是用标准正态分布(均值为0,方差为1)随机初始化的,这其实是存在不合理的部分。

标准正态分布:

可以看出真实数据的分布其实是在靠近坡峰的部分,符合正态分布的。


以下为转载

点击打开链接

caffe中初始化权重

首先说明:在caffe/include/caffe中的 filer.hpp文件中有它的源文件,如果想看,可以看看哦,反正我是不想看,代码细节吧,现在不想知道太多,有个宏观的idea就可以啦,如果想看代码的具体的话,可以看:http://blog.csdn.net/xizero00/article/details/50921692,写的还是很不错的(不过有的地方的备注不对,不知道改过来了没)。

文件 filler.hpp提供了7种权值初始化的方法,分别为:常量初始化(constant)、高斯分布初始化(gaussian)、positive_unitball初始化、均匀分布初始化(uniform)、xavier初始化、msra初始化、双线性初始化(bilinear)。

复制代码
275 Filler<Dtype>* GetFiller(const FillerParameter& param) {
276   const std::string& type = param.type();
277   if (type == "constant") {
278     return new ConstantFiller<Dtype>(param);
279   } else if (type == "gaussian") {
280     return new GaussianFiller<Dtype>(param);
281   } else if (type == "positive_unitball") {
282     return new PositiveUnitballFiller<Dtype>(param);
283   } else if (type == "uniform") {
284     return new UniformFiller<Dtype>(param);
285   } else if (type == "xavier") {
286     return new XavierFiller<Dtype>(param);
287   } else if (type == "msra") {
288     return new MSRAFiller<Dtype>(param);
289   } else if (type == "bilinear") {
290     return new BilinearFiller<Dtype>(param);
291   } else {
292     CHECK(false) << "Unknown filler name: " << param.type();
293   }
294   
  • 11
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
回答: 神经网络初始化方法对模型的收敛速度和性能有着至关要的影响。在深度神经网络中,随着层数的增多,梯度消失或梯度爆炸的问题容易出现。因此,初始化非常要。一般来说,有四种常见的初始化方法:初始化为0、随机初始化、Xavier初始化和He初始化。\[2\] 首先,将初始化为0是不可行的。因为在误差反向传播法中,所有的值都会进行相同的更新。这会导致被更新为相同的值,并且失去了不同的意义。为了防止均一化,必须随机生成初始值。\[3\] 其次,随机初始化是一种常见的初始化方法。通过从某个分布中随机选择初始值,可以打破的对称性,避免梯度消失或梯度爆炸的问题。常见的随机初始化方法包括在一定范围内均匀分布或正态分布的随机数。这样可以使得每个神经元的初始值不同,有利于模型的学习和收敛。\[2\] 另外,Xavier初始化和He初始化是两种常用的初始化方法。Xavier初始化是根据输入和输出神经元的数量来确定初始的范围,以保持梯度的稳定性。He初始化是在Xavier初始化的基础上,将初始的范围缩小一半,适用于使用ReLU激活函数的神经网络。这两种方法都能有效地解决梯度消失和梯度爆炸的问题,提高模型的性能和收敛速度。\[2\] 综上所述,神经网络初始化方法对模型的性能和收敛速度有着要的影响。随机初始化、Xavier初始化和He初始化是常用的初始化方法,可以有效地解决梯度消失和梯度爆炸的问题,提高模型的学习能力和收敛速度。\[2\] #### 引用[.reference_title] - *1* *3* [神经网络中的初始化](https://blog.csdn.net/A496608119/article/details/115529061)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [神经网络初始化](https://blog.csdn.net/weixin_44058333/article/details/99684821)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值