辨析:Normalization(规范化) V.S. 归一化 V.S. Standardization(标准化) V.S. Regularization(正则化)

辨析:Normalization(规范化) V.S. 归一化 V.S. Standardization(标准化) V.S. Regularization(正则化)

包含关系:

Normalization(规范化,也叫归一化,但实际上很多操作都不是归到一的,所以称为规范化更准确一点,包含两个操作,shift(移动) + scale(缩放))

  • Min-Max Normalization(最大最小归一化): x ′ = x − X m i n X m a x − X m i n ∈ [ 0 , 1 ] x' = \dfrac{x - X_{min} }{X_{max} - X_{min} } \in [0, 1] x=XmaxXminxXmin[0,1]
  • mean normalization(平均归一化): x ′ = x − μ X m a x − X m i n ∈ [ − 1 , 1 ] x' = \dfrac{x - \mu}{X_{max} - X_{min}} \in [-1, 1] x=XmaxXminxμ[1,1]
  • Standardization(标准化,一种特殊的规范化,也叫Z-Score Normalization)
    • Batch Normalization(批归一化)、Layer Normalization(层归一化):这两个都是特殊的标准化,针对不同的数据集合进行操作

下面这两个是凑热闹的

  • Regularization(正则化):在loss中添加正则化项,约束模型参数,有效的防止过拟合。
  • Generalization(泛化):归纳式学习中,用于描述模型把从训练集学习到的知识应用到测试集上的能力。

参考:

  • https://zhuanlan.zhihu.com/p/112509178
  • https://www.geeksforgeeks.org/normalization-vs-standardization/
  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值