Spark之SparkSQL

1、SparkSQL介绍

Hive是shark的前身,Shark是SparkSQL的前身,SparkSQL产生的根本原因是为了完全脱离Hive的限制。

2、SparkSQL 创建 DataFrame 的方式

在使用SparkSQL时Scala2.0+的版本创建的方式
val session: SparkSession = SparkSession
.builder()
.appName(“test”)
.enableHiveSupport()
.getOrCreate()
session.sparkContext.setLogLevel(“Error”)

2.1、读取json格式文件创建DataFrame
session.read.format(“json”).load("./data/json")

2.2、通过json格式的RDD创建DataFrame
在读取是要隐式转换, 在读取之前导入 import session.imlicits._
json数据要转换为DataSet格式数据

2.3、非json格式的RDD创建DataFrame
通过反射的方式将非json 格式的 RDD 转换成 DataFrame(不建议使用)
在这里插入图片描述

2.4、动态创建Schema将非json格式RDD转换成DataFrame

在这里插入图片描述

2.5、读取parquet文件创建DataFrame

读取parquet文件时,先要读取json文件,再以parquet的格式写入,再以session.read.format(“parquet”).load("./data/parquet")

读取json格式的数据和非json格式的数据,都要将数据转换为DataSet的格式,DataFrame是DataSet的Row版本

3、Spark on hive

3.1、配置
在你的spark的client端的spark的conf目录下,创建hive-site.xml文件写入以下配置,注意节点也是hive服务端


hive.metastore.uris
thrift://mynode1:9083

4、SparkSQL UDF与UDAF的区别

UDF:用户自定义函数。
可以自定义类实现 UDFX 接口。
UDAF:用户自定义聚合函数。
实现 UDAF 函数如果要自定义类要继承
UserDefinedAggregateFunction 类

开窗函数
row_number over(partition x1 order by x2)对表中的数据按照X1分组,按照X2排序,对每个分组内的数据标号,标号在每个分组内从1开始,每个分组内非标号是连续的
rank()over(partition x1 order by x2)对表中的数据按照X1分组,按照X2排序,对每个分组内的数据标号,标号在每个分组内从1开始,每个分组内非标号是不连续的
dense_rank() over (partition x1 order by x2)对表中的数据按照X1分组,按照X2排序,对每个分组内的数据标号,标号在每个分组内从1开始,每个分组内的标号连续且相同的数据标号相同

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值