SparkSql操作表的两种方式

package com.kk.sparksql
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.sql.catalyst.encoders.ExpressionEncoder
import org.apache.spark.sql.Encoder
import org.apache.spark.sql.Row
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.types._
import org.apache.spark.sql._
import org.apache.spark.sql.types._
object Emps {
  def main(args: Array[String]) {
    // 创建一个SparkSession
    val spark = SparkSession.builder().master("local").appName("sql").getOrCreate()
    import spark.sqlContext.implicits._ 
    // 导入emp.csv文件(导入数据)
    val lines = spark.sparkContext.textFile("G:/emp.csv").map(_.split(","));
    val myschema = StructType(List(StructField("empno", DataTypes.IntegerType), 
        StructField("ename", DataTypes.StringType), 
        StructField("job", DataTypes.StringType), 
        StructField("mgr", DataTypes.StringType), 
        StructField("hiredate", DataTypes.StringType), 
        StructField("sal", DataTypes.IntegerType), 
        StructField("comm", DataTypes.StringType), 
        StructField("deptno", DataTypes.IntegerType)))
    // 把读入的每一行数据映射成一个个Row 
    val rowRDD = lines.map(x => Row(x(0).toInt, x(1), x(2), x(3), x(4), x(5).toInt, x(6), x(7).toInt))
    val df = spark.createDataFrame(rowRDD,myschema)
    // 操作表(DataFrame):支持两种语言
    
    // (1) DSL语句:不常用
    // 查询所有的员工姓名 
    println(df.select("ename").show)
    // 运行结果
	+------+
	| ename|
	+------+
	| SMITH|
	| ALLEN|
	|  WARD|
	| JONES|
	|MARTIN|
	| BLAKE|
	| CLARK|
	| SCOTT|
	|  KING|
	|TURNER|
	| ADAMS|
	| JAMES|
	|  FORD|
	|MILLER|
	+------+
    
    // 查询所有的员工姓名和薪水,并给薪水加100块钱
    println(df.select($"ename",$"sal",$"sal"+100).show())
    // 运行结果
	+------+----+-----------+
	| ename| sal|(sal + 100)|
	+------+----+-----------+
	| SMITH| 800|        900|
	| ALLEN|1600|       1700|
	|  WARD|1250|       1350|
	| JONES|2975|       3075|
	|MARTIN|1250|       1350|
	| BLAKE|2850|       2950|
	| CLARK|2450|       2550|
	| SCOTT|3000|       3100|
	|  KING|5000|       5100|
	|TURNER|1500|       1600|
	| ADAMS|1100|       1200|
	| JAMES| 950|       1050|
	|  FORD|3000|       3100|
	|MILLER|1300|       1400|
	+------+----+-----------+

    // 查询工资大于2000的员工
    println(df.filter($"sal" > 2000).show())
    // 运行结果
	+-----+-----+---------+----+----------+----+----+------+
	|empno|ename|      job| mgr|  hiredate| sal|comm|deptno|
	+-----+-----+---------+----+----------+----+----+------+
	| 7566|JONES|  MANAGER|7839|  1981/4/2|2975|    |    20|
	| 7698|BLAKE|  MANAGER|7839|  1981/5/1|2850|    |    30|
	| 7782|CLARK|  MANAGER|7839|  1981/6/9|2450|    |    10|
	| 7788|SCOTT|  ANALYST|7566| 1987/4/19|3000|    |    20|
	| 7839| KING|PRESIDENT|    |1981/11/17|5000|    |    10|
	| 7902| FORD|  ANALYST|7566| 1981/12/3|3000|    |    20|
	+-----+-----+---------+----+----------+----+----+------+
   
    // 分组: empDF.groupBy($"deptno").count.show
    println(df.groupBy($"deptno").count.show())
     // 运行结果
   	|deptno|count|
	+------+-----+
	|    20|    5|
	|    10|    3|
	|    30|    6|
	+------+-----+
    
    // (2) SQL语句: 前提条件:需要把DataFrame注册成是一个Table或者View
    df.createTempView("emp")
    println(spark.sql("select ename from emp").show());
     // 运行结果
 	+------+
	| SMITH|
	| ALLEN|
	|  WARD|
	| JONES|
	|MARTIN|
	| BLAKE|
	| CLARK|
	| SCOTT|
	|  KING|
	|TURNER|
	| ADAMS|
	| JAMES|
	|  FORD|
	|MILLER|
	+------+
    
    println(spark.sql("select ename,sal,sal + 100 from emp").show())
     // 运行结果
 	+------+----+-----------+
	| ename| sal|(sal + 100)|
	+------+----+-----------+
	| SMITH| 800|        900|
	| ALLEN|1600|       1700|
	|  WARD|1250|       1350|
	| JONES|2975|       3075|
	|MARTIN|1250|       1350|
	| BLAKE|2850|       2950|
	| CLARK|2450|       2550|
	| SCOTT|3000|       3100|
	|  KING|5000|       5100|
	|TURNER|1500|       1600|
	| ADAMS|1100|       1200|
	| JAMES| 950|       1050|
	|  FORD|3000|       3100|
	|MILLER|1300|       1400|
	+------+----+-----------+
    
    println(spark.sql("select deptno,sum(sal) from emp group by deptno").show())
    // 运行结果
    +------+--------+
	|deptno|sum(sal)|
	+------+--------+
	|    20|   10875|
	|    10|    8750|
	|    30|    9400|
	+------+--------+
  }
}
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: SparkSQLjoin关联的五种方式实现及原理: 1. Shuffle Hash Join:将两个的join key进行hash分区,然后将相同hash值的数据分配到同一个节点上进行join操作,最后将结果进行合并。这种方式适用于数据量较小的情况。 2. Broadcast Hash Join:将小的数据广播到所有节点上,然后将大的数据进行hash分区,将相同hash值的数据分配到同一个节点上进行join操作,最后将结果进行合并。这种方式适用于小和大join的情况。 3. Sort Merge Join:将两个的数据进行排序,然后按照join key进行合并。这种方式适用于数据量较大的情况。 4. Broadcast Nested Loop Join:将小的数据广播到所有节点上,然后将大的数据进行遍历,对于每一条数据都与小进行join操作。这种方式适用于小和大join的情况。 5. Shuffle Sort Merge Join:将两个的数据进行hash分区,然后将相同hash值的数据分配到同一个节点上进行排序,最后按照join key进行合并。这种方式适用于数据量较大且需要排序的情况。 ### 回答2: SparkSQL是Spark的一个模块,它提供了对结构化和半结构化数据的高效分布式处理能力。在SparkSQL中,join是最重要的关联操作之一,SparkSQL提供了五种不同的关联方式,分别是:Nested Loop Join、Broadcast Join、Sort Merge Join、Shuffle Hash Join和Shuffle Sort Merge Join,下面将分别介绍这五种join操作的实现及其原理。 1. Nested Loop Join Nested Loop Join是最基本的join方式,它通过嵌套循环遍历两个中的所有记录,适用于小数据集和相对不复杂的查询。但是,因为其时间复杂度为O(n^2),在大数据集下效率很低。 2. Broadcast Join Broadcast Join适用于一个很小,可以全部放入内存中。采用广播变量的方式将小的数据复制到所有的Executor节点,然后通过map端的connect,将小和大进行join操作。由于广播变量的数据存储在Executor的内存中,所以能够消除shuffle过程带来的网络消耗。看似是一种很好的join方式,但是如果小过大(超过内存容量),广播变量将会成为瓶颈,所以使用时需要谨慎。 3. Sort Merge Join Sort Merge Join首先要把两个参与join的按照连接字段排序,并通过shuffle操作将数据分配到不同的Executor上。然后再在各自的Executor节点上进行join操作。这种join操作适合大join,它的局限性为需要进行shuffle操作,这可能是SparkSQL处理代价最大的操作,会给整个应用带来大量的数据复制和传输负载。 4. Shuffle Hash Join Shuffle Hash Join是通过将大中的数据切分成若干个Partition,并将小中的数据通过Hash算法分到不同的Partition中,将所有分到同一个Partition的数据进行join操作。其优点在于避免了Sort Merge Join的排序操作,但代价是需要大量计算Hash函数,可能会占用开销较大的计算资源,并且有些Partition中数据可能会对单个Executor节点消耗过大的内存。 5. Shuffle Sort Merge Join Shuffle Sort Merge Join是Sort Merge Join和Shuffle Hash Join的综合体,它对数据进行切分,再按照连接键进行排序,并且使用Hash算法将小数据分配到对应的Partition。然后再在每个Partition上使用Sort Merge Join算法进行join操作。该算法既兼顾Sort Merge Join的高效性,又兼顾Shuffle Hash Join的低内存占用,但在处理大时的性能也会受到shuffle操作的影响。 总之,以上五种join方式都各有利弊,选择哪种方式取决于数据量、内存容量、计算资源及SparkSQL应用的实际情况。 ### 回答3: Spark SQL是Spark中处理结构化数据的主要库,可以实现像SQL一样的查询和操作。其中,join操作是最常见的操作之一。Spark SQL支持五种不同的join操作来关联两个:inner join、left outer join、right outer join、full outer join和cross join。本文将为大家介绍这五种操作的实现原理。 1. Inner Join(内连接) 内连接是最简单的连接方式。它指的是将两个中共有的数据合并起来,并且只返回匹配的行。在Spark SQL中,可以使用join或者joinWith函数完成inner join操作。join函数用于连接两个DataFrame或Dataset,joinWith函数用于更严格的连接。它将两个中的相同字段并排放置,然后执行自定义操作。实现内连接操作的原理是使用了分布式并行计算,通过shuffle操作将两个数据集根据指定的字段进行分区,并运行在这些分区上进行join操作,最后将结果合并起来,得到新的数据集。 2. Left Outer Join(左外连接) 左外连接也叫左连接,指的是将左中所有行与右中符合条件的行组成的集合合并起来。如果右中没有匹配的行,则在输出结果中将显示null。在Spark SQL中,可以使用left_join函数完成left outer join操作。实现左外连接操作的原理与内连接相似,只不过在这种情况下,Spark会对左边的数据进行全局排序,在对右数据进行局部排序,以减少排序的成本。然后,Spark基于分布式计算原理对这两个数据集进行分区,根据指定字段进行join操作,并将结果合并起来得到新的数据集。 3. Right Outer Join(右外连接) 右外连接也叫右连接,是左外连接的倒置版,指的是将右中的所有行与左中符合条件的行组成的集合合并起来。如果左中没有匹配的行,则在输出结果中将显示null。在Spark SQL中,可以使用right_join函数完成right outer join操作。实现右外连接操作的实现原理和左外连接类似。 4. Full Outer Join(全外连接) 全外连接又称全连接,指的是将两个中所有的行都合并在一起,不管是否匹配。如果左或右中没有匹配的行,则在输出结果中会显示null。在Spark SQL中,可以使用crossJoin函数完成full outer join操作。实现全外连接操作的原理是将两个中的数据集进行分区,然后对每个分区上进行join操作,并将结果合并起来得到新的数据集。 5. Cross Join(交叉连接) 交叉连接是指将左中的每一行都与右中的每一行进行配对组合,不需要任何谓词或过滤条件。交叉连接的结果集中行数等于左行数与右行数的乘积。在Spark SQL中,可以使用crossJoin函数完成cross join操作。实现交叉连接操作的原理是将两个中的数据集进行笛卡尔积,并将结果集合并起来得到新的数据集。 综上所述,Spark SQL中五种join操作的实现原理基本相同,也都是通过shuffle或者分区操作对两个数据集进行分片,然后在指定的字段上进行join操作,最后将结果合并起来得到新的数据集。不同之处在于它们的返回结果及操作方式。在实际操作中,需要根据具体的业务需求,选择合适的join方式来完成相应的操作

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值