【机器学习入门笔记】第三篇-特征预处理

本文介绍了特征预处理中的归一化和标准化方法,用于无量纲化数据。归一化通过MinMaxScaler将数据范围限定在0到1之间,但对异常值敏感。而标准化使用StandardScaler,计算(X-mean)/std,适用于大数据场景,因为少量异常值对平均值影响较小。总结了两种方法的适用场景和优缺点。
摘要由CSDN通过智能技术生成
什么是特征预处理?为什么我们要进行归一化/标准化?
为了实现无量纲化,量纲特别大的影响特别大,不同规格的数据转化为统一规格

import pandas as pd
from sklearn.preprocessing import MinMaxScaler, StandardScaler

一、归一化

def minmax_demo():
    '''
    归一化
    :return:
    '''
    #1.获取数据
    data = pd.read_csv("dating.txt",sep="\t");
    data = data.iloc[:,:3]
    # print(data)
    #2.实例化一个转化器类
    transfer = MinMaxScaler(feature_range=[0,1])
    #3.调用fit_transform
    data_new = transfer.fit_transform(data)
    print("data_new:\n",data_new);
    return None
如果有异常值(最大值或最小值),另外最大值与最小值非常容易受异常点影响,所以这种方法鲁棒性较差,只适合传统精小数据场景。

所以用标准化(X-mean)/std
标准差:集中程度

二、标准化

def stand_demo():
    '''
    标准化
    :return:
    '''
    #1.获取数据
    data = pd.read_csv("dating.txt",sep="\t");
    data = data.iloc[:,:3]
    # print(data)
    #2.实例化一个转化器类
    transfer = StandardScaler()
    #3.调用fit_transform
    data_new = transfer.fit_transform(data)
    print("data_new:\n",data_new);
    return None
所以
对于归一化来说:如果出现异常点,影响了最大值和最小值,那么结果显然会发生改变
对于标准化来说,如果出现异常点,由于具有一定数据量,少量的异常点对于平均值的影响并不大,从而方差改变较小
在已有样本足够多的情况下比较稳定,适合现代嘈杂的大数据场景
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值