【DataFrame与Dataset】

零、本讲学习目标

  1. 了解Spark SQL的基本概念
  2. 掌握DataFrame的基本概念
  3. 掌握Dataset的基本概念
  4. 会基于DataFrame执行SQL查询

一、Spark SQL

(一)Spark SQL概述

  • Spark SQL是一个用于结构化数据处理的Spark组件。所谓结构化数据,是指具有Schema信息的数据,例如JSONParquetAvroCSV格式的数据。与基础的Spark RDD API不同,Spark SQL提供了对结构化数据的查询和计算接口。

(二)Spark SQL主要特点

1、将SQL查询与Spark应用程序无缝组合

  • Spark SQL允许使用SQL或熟悉的DataFrame API在Spark程序中查询结构化数据。与Hive不同的是,Hive是将SQL翻译成MapReduce作业,底层是基于MapReduce的;而Spark SQL底层使用的是Spark RDD。
  • 在Spark应用程序中嵌入SQL语句
val res = spark.sql( "SELECT * FROM student")

2、Spark SQL以相同方式连接多种数据源

  • Spark SQL提供了访问各种数据源的通用方法,数据源包括HiveAvroParquetORCJSONJDBC等。
  • 读取HDFS中的JSON文件,基于文件内容创建临时视图,最后与其他表根据指定的字段关联查询
// 读取JSON文件
val userScoreDF = spark.read.json("hdfs://master:9000/users.json")
// 创建临时视图user_score
userScoreDF.createTempView("user_score")
// 根据name关联查询
val resDF = spark.sql("SELECT i.age, i.name, c.score FROM user_info i INNER JOIN user_score c ON i.name = c.name")

3、在现有数据仓库上运行SQL或HiveQL查询

  • Spark SQL支持HiveQL语法以及Hive SerDesUDF(用户自定义函数),允许访问现有的Hive仓库。

二、数据帧 - DataFrame

(一)DataFrame概述

  • DataFrame是Spark SQL提供的一个编程抽象,与RDD类似,也是一个分布式的数据集合,但与RDD不同,DataFrame的数据都被组织到有名字的列中,就像关系型数据库中的表一样。此外,多种数据都可以转化为DataFrame,例如Spark计算过程中生成的RDD、结构化数据文件、Hive中的表、外部数据库等。

(二)将RDD转成DataFrame

  • DataFrame在RDD的基础上添加了数据描述信息(Schema,模式,即元信息),因此看起来更像是一张数据库表。

  • 一个RDD中有5行数据
    在这里插入图片描述

  • 将RDD转成DataFrame
    在这里插入图片描述

  • 使用DataFrame API结合SQL处理结构化数据比RDD更加容易,而且通过DataFrame API或SQL处理数据,Spark优化器会自动对其优化,即使写的程序或SQL不高效,也可以运行得很快。

三、数据集 - Dataset

(一)Dataset概述

  • Dataset是一个分布式数据集,是Spark 1.6中添加的一个新的API。相对于RDD,Dataset提供了强类型支持,在RDD的每行数据加了类型约束。而且使用Dataset API同样会经过Spark SQL优化器的优化,从而提高程序执行效率。

(二)将RDD转成DataSet

  • 一个RDD中有3行数据
    在这里插入图片描述

  • 将RDD转换为Dataset
    在这里插入图片描述

(三)DataFrame与Dataset的关系

  • 在Spark中,一个DataFrame所代表的是一个元素类型为RowDataset,即DataFrame只是Dataset[Row]的一个类型别名。

四、简单使用Spark SQL

(一)了解SparkSession

  • Spark Shell启动时除了默认创建一个名为scSparkContext的实例外,还创建了一个名为sparkSparkSession实例,该spark变量可以在Spark Shell中直接使用。
  • 从Spark2.0以上版本开始, Spark使用全新的SparkSession接口替代Spark1.6中的SQLContext及HiveContext接口来实现其对数据加载、转换、处理等功能。SparkSession实现了SQLContext及HiveContext所有功能。
  • SparkSession只是在SparkContext基础上的封装,应用程序的入口仍然是SparkContext。SparkSession允许用户通过它调用DataFrame和Dataset相关API来编写Spark程序,支持从不同的数据源加载数据,并把数据转换成DataFrame,然后使用SQL语句来操作DataFrame数据。

(二)准备数据文件

1,董秀英,,20
2,常万强,,18
3,陈文雯,,21
4,毛秀英,,19
5,张三丰,,20
  • 执行命令:vim student.txt,创建student.txt文件
    在这里插入图片描述

  • student.txt上传到HDFS的/input目录(如果目录不存在,就创建起来)
    在这里插入图片描述

(三)加载数据为Dataset

  • 启动Spark Shell,执行命令:spark-shell --master spark://master:7077
    在这里插入图片描述

1、读文件得数据集

  • 调用SparkSession对象的read.textFile()可以读取指定路径中的文件内容,并加载为一个Dataset

  • 执行命令:val ds = spark.read.textFile("hdfs://master:9000/input/student.txt")
    在这里插入图片描述

  • 从变量ds的类型可以看出,textFile()方法将读取的数据转为了Dataset。除了使用textFile()方法读取文本内容外,还可以使用csv()jdbc()json()等方法读取CSV文件、JDBC数据源、JSON文件等数据。(csv: comma separated value)

2、显示数据集内容

  • 执行命令:ds.show()
    在这里插入图片描述

  • 可以看出,Dataset将文件中的每一行看作一个元素,并且所有元素组成了一列,列名默认为value

3、显示数据集模式

  • 执行命令:ds.printSchema()
    在这里插入图片描述

(四)给数据集添加元数据信息

1、定义学生样例类

  • 定义一个样例类Student,用于存放数据描述信息(Schema

  • 执行命令:case class Student(id: Int, name: String, gender: String, age: Int)
    在这里插入图片描述

  • 基于样例类创建对象很简单,不需要new关键字,只需要传入相应参数即可创建对象
    在这里插入图片描述

2、导入隐式转换

  • 导入SparkSession的隐式转换,以便后续可以使用Dataset的算子
  • 执行命令:import spark.implicits.__表示implicits包里所有的类,类似于Java里的*
    在这里插入图片描述

3、将数据集转换成学生数据集

  • 调用Dataset的map()算子将每一个元素拆分并存入Student样例对象
  • 执行命令:paste进入粘贴模式,然后执行红框类的命令
    在这里插入图片描述
 val studentDS = ds.map(line => {
     val fields = line.split(",")
     val id = fields(0).toInt
     val name = fields(1)
     val gender = fields(2)
     val age = fields(3).toInt
     Student(id, name, gender, age)
})

4、对学生数据集进行操作

(1)显示数据集内容
  • 执行命令:studentDS.show()
    在这里插入图片描述

  • 可以看到,studentDS中的数据类似于一张关系型数据库的表。

(2)打印数据集模式
  • 执行命令:studentDS.printSchema()
    在这里插入图片描述
(3)对数据集进行投影操作
  • 显示学生的姓名和年龄字段,执行命令:studentDS.select("name", "age").show()
    在这里插入图片描述
(4)对数据集进行过滤操作
  • 显示女生记录,执行命令:studentDS.filter("gender == '女'").show()
    在这里插入图片描述

  • 显示年龄在[19, 20]之间的记录

    • 执行命令: val ds1 = studentDS.filter("age >= 19")
    • 执行命令:val ds2 = studentDS.filter("age <= 20")
    • 执行命令:ds1.show
    • 执行命令:ds2.show
      在这里插入图片描述
  • 执行命令:val ds3 = ds1.intersect(ds2)

  • 执行命令:ds3.show
    在这里插入图片描述

  • 可以有更简单的处理方式,执行命令:studentDS.filter("age >= 19 and age <= 20").show()
    在这里插入图片描述

(5)对数据集进行统计操作
  • 求20岁以上的女生人数
    在这里插入图片描述

  • 分组统计男女生总年龄,执行命令:studentDS.groupBy("gender").sum("age").show()
    在这里插入图片描述

  • 分组统计男女生平均年龄:执行命令:studentDS.groupBy("gender").avg("age").show()
    在这里插入图片描述

  • 分组统计男女生最大年龄,执行命令:studentDS.groupBy("gender").max("age").show()
    在这里插入图片描述

  • 分组统计男女生最小年龄,执行命令:studentDS.groupBy("gender").min("age").show()
    在这里插入图片描述

(6)对数据集进行排序操作
  • 按年龄升序排列,执行命令:studentDS.sort("age").show()
    在这里插入图片描述

  • 按年龄降序排列,执行命令: studentDS.sort(studentDS("age").desc).show()
    在这里插入图片描述

  • 先按性别升序排列,再按年龄降序排列,执行命令:studentDS.sort(studentDS("gender"), studentDS("age").desc).show()
    在这里插入图片描述

(7)重命名数据集字段
  • 执行命令:studentDS.select(studentDS("id").as("学号"), studentDS("name").as("姓名"), studentDS("gender").as("性别"), studentDS("age").as("年龄")).show()
    在这里插入图片描述

(五)将数据集转为数据帧

  • Spark SQL查询的是DataFrame中的数据,因此需要将存有元数据信息的Dataset转为DataFrame。调用Dataset的toDF()方法,将存有元数据的Dataset转为DataFrame。

1、将数据集转为数据帧

  • 将学生数据集转为学生数据帧,执行命令:val studentDF = studentDS.toDF()
    在这里插入图片描述

2、对数据帧进行各种操作

(1)显示数据帧内容
  • 显示学生数据帧内容,执行命令:studentDF.show()
    在这里插入图片描述
(2)显示数据帧模式信息
  • 打印学生数据帧模式信息,执行命令:studentDF.printSchema()
    在这里插入图片描述
(3)对数据帧进行投影操作
  • 显示学生数据帧姓名与年龄字段,年龄加1,执行命令:studentDF.select(studentDF("name"), studentDF("age") + 1).show()
    在这里插入图片描述
(4)对数据帧进行过滤操作
  • 查询年龄在19岁以上的记录,执行命令:studentDF.filter(studentDF("age") > 19).show()
    在这里插入图片描述

  • 查询20岁以上的女生记录,执行命令:studentDF.filter("age > 20 and gender == '女'").show()
    在这里插入图片描述

(5)对数据帧进行统计操作
  • 统计学生数据帧总记录数,执行命令:studentDF.count()
    在这里插入图片描述

  • 分组统计男女生总年龄,执行命令:studentDF.groupBy("gender").sum("age").show()
    在这里插入图片描述

  • 分组统计男女生平均年龄,执行命令:studentDF.groupBy("gender").avg("age").show()
    在这里插入图片描述

  • 分组统计男女生最大年龄,执行命令:studentDF.groupBy("gender").max("age").show()
    在这里插入图片描述

  • 分组统计男女生最小年龄,执行命令:studentDF.groupBy("gender").min("age").show()
    在这里插入图片描述

  • 分组统计男女生人数,执行命令:studentDF.groupBy("gender").count().show()
    在这里插入图片描述

(6)对数据帧进行排序操作
  • 对年龄升序排列,执行命令:studentDF.sort("age").show()
    在这里插入图片描述

  • 对年龄降序排列,执行命令:studentDF.sort(studentDF("age").desc).show()
    在这里插入图片描述

  • 先按性别升序,再按年龄降序,- 执行命令:studentDF.sort(studentDF("gender"), studentDF("age").desc).show()
    在这里插入图片描述

(7)重命名数据帧字段
  • 执行命令:studentDF.select(studentDF("id").as("学号"), studentDF("name").as("姓名"), studentDF("gender").as("性别"), studentDF("age").as("年龄")).show()
    在这里插入图片描述

  • 直接对数据帧进行操作,其实并不是很方便,因此,我们需要基于数据帧创建临时视图,然后对于临时视图就可以进行SQL操作,那样就会十分方便。

(六)基于数据帧进行SQL查询

1、基于数据帧创建临时视图

  • 基于学生数据帧studentDF,创建一个临时视图student,就可以对student视图进行SQL操作

  • 执行命令:studentDF.createTempView("student")
    在这里插入图片描述

  • 其实,也可以执行命令:studentDF.createOrReplaceTempView("student")
    在这里插入图片描述

  • 如果指定的视图不存在,那就创建,如果存在,那就替换。

2、使用spark对象执行SQL查询

  • 在Spark Shell环境里,系统已经创建了名为sparkSparkSession对象
(1)查询全部表记录
  • 执行命令:spark.sql("select * from student").show()
(2)显示数据表结构
  • 执行命令:spark.sql("describe student").show()
    在这里插入图片描述
(3)对表进行投影操作
  • 执行命令:spark.sql("select name, age + 1 from student").show()
    在这里插入图片描述
(4)对表进行选择操作
  • 查询年龄在19岁以上的记录,执行命令:spark.sql("select * from student where age > 19").show()
    在这里插入图片描述

  • 查询20岁以上的女生记录,执行命令:spark.sql("select * from student where age > 20 and gender = '女'").show()
    在这里插入图片描述

(5)对表进行统计操作
  • 查询学生表总记录数,执行命令:spark.sql("select count(*) count from student").show()
    在这里插入图片描述

  • 分组统计男女生总年龄,执行命令:spark.sql("select gender, sum(age) from student group by gender").show()
    在这里插入图片描述

  • 分组统计男女生平均年龄,执行命令:spark.sql("select gender, avg(age) from student group by gender").show()
    在这里插入图片描述

  • 分组统计男女生最大年龄,执行命令:spark.sql("select gender, max(age) from student group by gender").show()
    在这里插入图片描述

  • 分组统计男女生最小年龄,执行命令:spark.sql("select gender, min(age) from student group by gender").show()
    在这里插入图片描述

  • 分组统计男女生人数,执行命令:spark.sql("select gender, count(id) from student group by gender").show()
    在这里插入图片描述

(6)对表进行排序操作
  • 按年龄升序排列,执行命令:spark.sql("select * from student order by age").show()
    在这里插入图片描述

  • 按年龄降序排列,执行命令:spark.sql("select * from student order by age desc").show()
    在这里插入图片描述

  • 先按性别升序,再按年龄降序,执行命令:spark.sql("select * from student order by gender asc, age desc").show()
    在这里插入图片描述

(7)重命名数据表字段
  • 执行命令:spark.sql("select id stu_id, name stu_name, gender stu_gender, age stu_age from student").show()
    在这里插入图片描述

  • 执行命令:spark.sql("select id 学号, name 姓名, gender 性别, age 年龄 from student").show(),无法解析中文别名
    在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

热心市民小李同学

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值