pyspark 数据类型转换_PySpark学习笔记 - 模型建立流程

本文是关于使用PySpark进行数据类型转换和模型建立的学习笔记,重点介绍了如何将数据转换为numeric类型,应用one-hot encoding处理类别变量,以及创建pipeline进行数据预处理。同时,强调了在分割train和test数据前需完成数据处理,以避免StringIndexer产生的不同index。最后,文章概述了选择模型、设定评估指标、进行超参数调优和交叉验证的过程。
摘要由CSDN通过智能技术生成

cba9f6393cbf7eea110b2e32b105fd0e.png

最近工作中用到pyspark, 在家自学整理了笔记

觉得有用的话,点赞支持一下谢谢~

数据准备

spark建模中需要的数据需要是numeric类型

(1)普通的类型转换

# convert to numeric type
data.withColumn("oldCol",data.oldCol.cast("integer"))

(2)类别变量处理 - onehot encoding

# create StringIndexer
A_indexer = StringIndexer(inputCol = "A", outputCol = "A_index")
A_encoder = OneHotEncoder(inputCol = "A_index", outputCol = "A_fact")

(3)将所有的列assemble

VectorAssembler(inputCols = ["a
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值