spark-udf函数

udf函数自定义

from pyspark.sql import SparkSession
from pyspark.sql.types import *

创建连接

ss = SparkSession.builder.getOrCreate()

读取hdfs的数据,格式为csv 读取的是hdfs我还以为会调整一下

8020是namenode的默认端口

df_csv = ss.read.csv(‘hdfs://node1:8020/user/hive/warehouse/data/stu.csv’,
schema=‘name string,age int,gender string,phone string,email string,city string,address string’)
df_csv.show()

对邮箱数据进行处理

def func(email):
username = email.split(‘@’)[0]
email_name = email.split(‘@’)[1].split(‘.’)[0]
# todo 新知识:返回多个数据如何做到?
return [username, email_name]

将定义的函数注册到spark中进行使用

todo 我说之前怎么自定义后用不了,原来是没有注册

第一个函数 指定一个注册的函数名称

第二个函数 指定一个自定义函数名称

returnType 指定返回的数据类型

注意这里的func不能带括号,返回的数据类型是需要导入另一个包

好好,这里又用一个坑,它不自己跳出来returnType=ArrayType(StringType())

todo returnType=ArrayType(StringType) 里面的这个括号它自己不跳出来

email_func = ss.udf.register(‘email_func’, func, returnType=ArrayType(StringType()))

SQL使用

df_csv.createTempView(‘stu’)
df_csv_show = ss.sql(‘select neme,age,general email_func(email)[1] from stu’)
df_csv_show.show()

DSL

我以为是怎么用的,df_csv.email

df_csv_SQL= df_csv.select(‘name’,‘age’,‘gender’,email_func(‘email’).alias(‘email_data’)[0])
df_csv_SQL.show()

  • 32
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值