神经网络基础1:数据处理biasing与scaling

本文探讨神经网络中数据预处理的重要性,包括scaling和biasing。通过对输入数据进行去量纲化的scaling操作,可以避免梯度更新的偏斜,提升收敛速度。biasing通过去中心化使数据具有正负值,缓解更新方向限制。然而,对于样本数据的biasing可能不适用于稀疏特征,因为它可能导致不必要的参数更新。
摘要由CSDN通过智能技术生成

数据处理

我们知道在神经网络中,通常需要对样本数据进行预处理(Z-score standardization)、对各层中间隐层进行normalization(如Batch-normalization、layer-normalization等),这些操作都涉及biasing和scaling操作,那为什么需要这些操作?

我们知道,每个神经元输出都是输入的线性组合z经过线性/非线性变换得到的

y=f(z)=f(b+W^TX)

可以把梯度理解成是输入对输出贡献的力度,梯度大小是与输入数值大小息息相关的\partial z / \partial W = X,中间输出z对参数W的梯度等于输入向量X,而神经网络使用梯度下降法来训练更新参数W,也即参数W的更新大小与方向与输入向量X是线性的

  • 当输入向量X严重偏向某些维度时,参数W的更新同样也会严重偏向这些维度,也即会形成类似zig-zag形的更新路径,从而严重影响收敛速度,如下左图所示,为了避免这种情况,通常需要对数据进行scaling,对样本数据来说便是去量纲化
  • 另外,
  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值