pyspark 并行调用udf函数

背景:在 pyspark中udf写法及其使用中我们使用pyspark定义好的udf逐条处理数据(dataframe)。这篇文章提供一种“并行”调用udf的方法。

from pyspark.sql import Row
from pyspark.sql.types import StringType, StructField, StructType

# udf定义
def proc_func(row):
	row_dict = row.asDict(True)  # 将rdd转化成字典格式
	col_1 = row_dict['col_1']
	new_col = 'proc_{}'.format(col_1)
	row_dict['new_col'] = new_col
	return Row(**row_dict)

# 定义输出字段
output_struct = StructType([
	StructField('col_1', StringType()),
	StructField('new_col', StringType())
]) 

# 调用udf
your_df = your_df.rdd.map(proc_func)  # 需要将DataFrame转为rdd

# 将处理结果再解析为Dataframe
your_df = spark.createDataFrame(your_df.map(
		lambda row: Row(
				row.col_1,
				row.new_col
			)
		), output_struct
	)

其他补充,以下是几个常见的类型

from pyspark.sql.types import IntegerType, StringType, ArrayType

# int型
IntegerType()

# list型
ArrayType(IntegerType())  # int list
ArrayType(StringType())  # string list

使用这种方式,会大大减少数据计算时间。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值