关于特征归一化/标准化


借鉴博客链接:https://blog.csdn.net/blogshinelee/article/details/102875044

常用的特征归一化方法

  • Rescaling (min-max normalization、range scaling):
    在这里插入图片描述

  • Mean normalization
    在这里插入图片描述

  • Standardization (Z-score Normalization):
    在这里插入图片描述

  • Scaling to unit length:

在这里插入图片描述

什么时候需要特征归一化

  • 涉及或隐含距离计算的算法,比如K-means、KNN、PCA、SVM等,一般需要feature scaling
  • 损失函数中含有正则项时,使损失函数平等看待每一维特征。
  • 梯度下降算法。

什么时候不需要特征归一化

  • 与距离计算无关的概率模型,不需要feature scaling,比如Naive Bayes;
  • 与距离计算无关的基于树的模型,不需要feature scaling,比如决策树、随机森林等,树中节点的选择只关注当前特征在哪里切分对分类更好,即只在意特征内部的相对大小,而与特征间的相对大小无关。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值