【机器学习合集】参数初始化合集 ->(个人学习记录笔记)

综述

这些是不同的权重初始化方法,用于初始化神经网络的权重参数。它们的主要区别在于初始化权重的策略和数学原理。以下是这些初始化方法的简要介绍和区别:

  1. 简单初始化(Zero Initialization)

    • 策略:所有权重初始化为零。
    • 区别:这是最简单的初始化方法,但通常不建议使用,因为在多层神经网络中,所有的神经元将拥有相同的权重,导致对称性问题,不利于学习。
  2. 随机初始化(Random Initialization)

    • 策略:权重以随机小的值初始化,通常在[-ε, ε]的范围内,其中ε是一个很小的正数。
    • 区别:随机初始化打破了对称性,允许神经网络从不同的起点开始学习,改善了训练过程。
  3. 固定方差初始化(Fixed Variance Initialization)

    • 策略:权重初始化时,使用一个固定的方差,通常是从正态分布中选择的。
    • 区别:这个方法确保权重的分布具有相对一致的方差,但不一定适用于所有网络结构和任务。
  4. 方差缩放初始化(Variance Scaling Initialization)

    • 策略:权重初始化时,方差根据网络的输入和输出的维度进行缩放,通常以特定的方式选择。
    • 区别:这个方法试图通过权重初始化来平衡信号的方差,以防止梯度消失或爆炸问题,并有助于更稳定的训练。
  5. He初始化(He Initialization)

    • 策略:权重初始化是根据网络的输入和输出的维度进行的,方差被设置为2/n,其中n是权重连接的输入维度。
    • 区别:He初始化是为深度卷积神经网络设计的,通过设置适当的方差,可以提高网络的学习速度和性能。
  6. 正交初始化(Orthogonal Initialization)

    • 策略:权重初始化是通过生成正交矩阵来实现的,确保权重之间彼此正交。
    • 区别:正交初始化有助于减少权重之间的冗余信息,提高网络的效率和学习性能。
  7. MSRA初始化(Microsoft Research for Advanced Initiative Initialization)

    • 策略:权重初始化是根据网络的输入和输出的维度进行的,方差被设置为2/(n_in + n_out),其中n_in是输入维度,n_out是输出维度。
    • 区别:MSRA初始化旨在平衡信号的方差,以提高网络的训练速度和性能。
  • 不同的初始化方法适用于不同的网络结构和任务。通常,随机初始化、He初始化和MSRA初始化在深度神经网络中表现良好,因为它们可以打破对称性,有助于更快的收敛和更好的性能。选择正确的初始化方法通常是深度学习中的一个重要超参数,需要根据具体的情况进行调整。

在这里插入图片描述

1. 全零与随机初始化

在这里插入图片描述

2. 标准初始化(固定方差)

在这里插入图片描述

3. Xavier初始化(方差缩放)

在这里插入图片描述

4. He初始化

在这里插入图片描述

5. 正交初始化

在这里插入图片描述
在这里插入图片描述

6. MSRA初始化

在这里插入图片描述

部分内容来自: 阿里云天池、神经网络与深度学习(邱锡鹏著)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

slience_me

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值