最全【机器学习】数据预处理 - 归一化和标准化_归一化处理(1),2024年最新我们究竟还要学习哪些大数据开发知识

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

print(iris.data)


输出:



[[5.1 3.5 1.4 0.2]
[4.9 3. 1.4 0.2]

[5.9 3. 5.1 1.8]]


从输出结果可以看到,数据规格都是有「差异」的,接下来,我们对数据进行归一。


  

## 三、归一化处理


fit\_transform() 可以对数据进行「归一」处理



from sklearn import preprocessing
from sklearn import datasets

初始化

mm = preprocessing.MinMaxScaler()

获取数据源

iris = datasets.load_iris()

归一化处理

new_data = mm.fit_transform(iris.data)
print(new_data)


输出:



[[0.22222222 0.625 0.06779661 0.04166667]
[0.16666667 0.41666667 0.06779661 0.04166667]

[0.44444444 0.41666667 0.69491525 0.70833333]]


从结果可以看到,归一后的结果,数据规格都在 0~1 之间。


实际上,fit\_transform() 不只可以 “归1” ,我们自己设置归一的范围。


  

## 四、设置归一化范围


实例化 MinMaxScaler 时,指定 feature\_range 参数的值,可以设置归一的「范围」。



from sklearn import preprocessing
from sklearn import datasets

初始化

mm = preprocessing.MinMaxScaler(feature_range=(2,3))

获取数据源

iris = datasets.load_iris()

归一化处理

new_data = mm.fit_transform(iris.data)
print(new_data)


输出:



[[2.22222222 2.625 2.06779661 2.04166667]
[2.16666667 2.41666667 2.06779661 2.04166667]

[2.44444444 2.41666667 2.69491525 2.70833333]]


从输出结果可以看到,数据的范围变成 2~3 区间。


接下来,我们了解一下,MinMaxScaler 是如何进行归一的。


  

## 五、归一化原理


MinMaxScaler 根据以下「公式」进行归一:


![在这里插入图片描述](https://img-blog.csdnimg.cn/ac23cab9295a41ab877f8f7f5152f92e.png)


* 以列为基准,max为一列的最大值,min为一列的最小值
* mx、mi是归一指定的区间,默认mx=1,mi=0


我们准备一些测试数据:


![在这里插入图片描述](https://img-blog.csdnimg.cn/dd7ea0de71d6425e9a0888d4a3f65487.png)


我们拿特征一这一列举例,第一个数是90,先带入第一个公式:X‘=(90-60)/(90-60)=1  
 再带入第二个公式:X"=1\*1+0=1  
 那么第一个数就转换成1.


知道了归一化的计算方式后,可以发现归一化存在一定的「局限性」。  
 归一化是根据最大值和最小值来计算的,当最大值/最小值出现异常时,比如最大值跟其他数据差的非常多,那么这种计算方式就会存在较大的误差。只适合传统精确小数据场景,对于其他场景,可以使用标准化的方式。


  

## 六、标准化


sklearn.preprocessing.StandardScaler()


* StandardScaler.fit\_transform( data ):接收array类型数据,返回保准化后的array类型数据。


我们将归一化的案例,用「标准化」函数再处理一遍



from sklearn import preprocessing
from sklearn import datasets

初始化

ss = preprocessing.StandardScaler()

获取数据源

iris = datasets.load_iris()

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!**

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

  • 21
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值