十四、Spark SQL内置函数

本文详细介绍了Spark SQL的内置函数,包括10大类函数和两种使用方式,并通过示例演示了如何使用upper()函数。同时,文章讲解了自定义函数的概念,提供了创建UDF和UDAF的实例,以及开窗函数的应用,如使用row_number()进行分组求TOPN。
摘要由CSDN通过智能技术生成

Spark SQL内置函数

1、10类内置函数

Spark SQL内置了大量的函数,位于API org.apache.spark.sql.functions中。这些函数主要分为10类:UDF函数、聚合函数、日期函数、排序函数、非聚合函数、数学函数、混杂函数、窗口函数、字符串函数、集合函数,大部分函数与Hive中相同。

2、两种使用方式

使用内置函数有两种方式:一种是通过编程的方式使用;另一种是在SQL语句中使用。

(二)内置函数演示

读取HDFS上的people.json,得到数据帧,执行命令:val peopleDF = spark.read.json(“hdfs://master:9000/input/people.json”)
在这里插入图片描述
显示数据帧内容
在这里插入图片描述
导入Spark SQL内置函数,执行命令:import org.apache.spark.sql.functions._
在这里插入图片描述

1、通过编程方式使用内置函数upper()

利用upper()函数将姓名转成大写,执行命令:peopleDF.select(upper(col(“name”)).as(“name”)).show()
在这里插入图片描述
上述代码中,使用select()方法传入需要查询的列,使用as()方法指定列的别名。代码col(“name”)指定要查询的列,也可以使用 " n a m e " 代 替 , 但 是 需 要 导 入 i m p o r t s p a r k . i m p l i c i t s . , 执 行 命 令 : p e o p l e D F . s e l e c t ( u p p e r ( "name"代替,但是需要导入import spark.implicits._,执行命令:peopleDF.select(upper( "

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值