SparkSQL 学习笔记----Hive数据源实战

12 篇文章 0 订阅
1、什么是HiveContext
  • Spark SQL支持对Hive中存储的数据进行读写
    操作Hive中的数据时,必须创建HiveContext(HiveContext也是已经过时的不推荐使用,嘤嘤嘤~还没学好就已经过时了)。HiveContext继承自SQLContext,但是增加了在Hive元数据库中查找表,以及HiveSQL语法编写SQL的功能。除了sql()方法,HiveContext还提供了hql()方法,从而用Hive语法来编辑sql。
  • Spark SQL允许将数据保存到Hive表中
    调用DataFrame的saveAsTable命令,即可将DataFrame中的数据保存到Hive表中。与registerTempTable不同,saveAsTable是会将DataFrame中的数据物化到Hive表中的,而且还会在Hive元数据库中创建表的元数据。
    默认情况下,saveAsTable会创建一张Hive Managed Table,也就是说数据的位置都是由元数据库中的信息控制的。当Managed Table被删除时,表中的数据也会一并被物理剔除。
    registerTempTable只是注册一个临时的表,只要Spark Application重启或者停止了,那么表就没了。而saveAsTable创建的是物化的表,无论Spark Application重启或者停止,表都会一直存在。
    调用HiveContext.table()方法,还可以直接针对Hive中的表,创建一个DataFrame。
2、如何使用HiveContext

使用HiveContext,可以执行Hive的大部分功能,包括创建表、向表中导入数据以及用SQL语句查询表中的数据。查询出来的数据是一个Row数组。
将hive-site.xml拷贝到spark/conf目录下,将mysql connector拷贝到spark/lib目录下
在这里插入图片描述
在这里插入图片描述

HiveContext sqlContext = new HiveContext(sc);
sqlContext.sql("CREATE TABLE IF NOT EXISTS students (name STRING,age INT)");
sqlContext.sql("LOAD DATA LOCAL INPATH '/usr/local/spark-study/resources/students.txt' INTO TABLE students");
Row[] teenagers = sqlContext.sql("SELECT name,age FROM students WHERE age<=18").collect();
3、案例:查询分数大于80分的学生的信息
  • java版
package pz.spark.study.sql;

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.hive.HiveContext;

public class HiveDataSource {
    public static void main(String[] args) {
        //创建SparkConf
        SparkConf conf = new SparkConf().setAppName("HiveDataSource");
        //创建JavaSparkContext
        JavaSparkContext sc = new JavaSparkContext(conf);
        //创建hiveContext,注意这里接收的是SparkContext作为参数,而不是JavaSparkContext
        HiveContext hiveContext = new HiveContext(sc.sc());

        //第一个功能,使用HiveContext的sql()/hql()方法,可以执行hive中能够执行的HiveSQL语句
        //将学生基本信息数据导入student_infos表
        //判断是否存在student_infos,如果存在则删除
        hiveContext.sql("DROP TABLE IF EXISTS TABLE student_infos");
        //判断student_infos表是否不存在,如果不存在则创建该表
        hiveContext.sql("CREATE TABLE IF NOT EXISTS student_infos (name STRING,age INT)");

        //将学生基本信息数据导入student_infos表
        hiveContext.sql("LOAD DATA LOCAL INPATH '/usr/local/spark-study/student_infos.txt' INTO TABLE student_infos");

        //用同样的方式给student_scores导入数据
        hiveContext.sql("DROP TABLE IF EXISTS TABLE student_scores");
        hiveContext.sql("CREATE TABLE IF NOT EXISTS  student_scores (name STRING,score INT)");
        hiveContext.sql("LOAD DATA LOCAL INPATH '/usr/local/spark-study/student_scores.txt' INTO TABLE student_scores");

        //第二个功能,执行sql还可以返回DataFrame,用于查询
        //执行sql查询,关联两张表,查询成绩大于80分的学生信息
        Dataset<Row> goodStrudentsDF = hiveContext.sql("SELECT si.name name,si.age age,ss.score" +
                "FROM student_infos si" +
                "JOIN studnet_scores ss " +
                "ON si.name=ss.name" +
                "WHERE ss.score>=80");

        //第三个功能,可以将DataFrame中的数据,理论上说DataFrame对应的RDD的元素,是Row即可

        //将DataFrame中的数据保存到good_student_infos表中
        hiveContext.sql("DROP IF EXISTS TABLE good_student_infos");
        goodStrudentsDF.write().saveAsTable("good_student_infos");

        //第四个工程,可以用table()方法,针对hive表,直接创建DataFrame
        //然后针对good_student_infos表,直接创建DataFrame
        Row[] goodStudentRows = hiveContext.table("good_student_infos").collect();

        for (Row goodStudentRow :goodStudentRows) {
            System.out.println(goodStudentRow);
        }
        sc.close();
    }
}

  • scala版
package pz.spark.study.sql

import org.apache.spark.SparkConf
import org.apache.spark.api.java.JavaSparkContext
import org.apache.spark.sql.hive.HiveContext

object HiveDataSource_scala {
  def main(args: Array[String]): Unit = {
    //创建SparkConf
    val conf = new SparkConf().setAppName("HiveDataSource")
    //创建JavaSparkContext
    val sc = new JavaSparkContext(conf)
    //创建hiveContext,注意这里接收的是SparkContext作为参数,而不是JavaSparkContext
    val hiveContext = new HiveContext(sc)

    //第一个功能,使用HiveContext的sql()/hql()方法,可以执行hive中能够执行的HiveSQL语句
    //将学生基本信息数据导入student_infos表
    //判断是否存在student_infos,如果存在则删除
    hiveContext.sql("DROP TABLE IF EXISTS TABLE student_infos")
    //判断student_infos表是否不存在,如果不存在则创建该表
    hiveContext.sql("CREATE TABLE IF NOT EXISTS student_infos (name STRING,age INT)")


    hiveContext.sql("LOAD DATA LOCAL INPATH '/usr/local/spark-study/student_infos.txt' INTO TABLE student_infos")

    //用同样的方式给student_scores导入数据
    hiveContext.sql("DROP TABLE IF EXISTS TABLE student_scores")
    hiveContext.sql("CREATE TABLE IF NOT EXISTS  student_scores (name STRING,score INT)")
    hiveContext.sql("LOAD DATA LOCAL INPATH '/usr/local/spark-study/student_scores.txt' INTO TABLE student_scores")

    //第二个功能,执行sql还可以返回DataFrame,用于查询
    //执行sql查询,关联两张表,查询成绩大于80分的学生信息
    val goodStrudentsDF = hiveContext.sql("SELECT si.name name,si.age age,ss.score" + "FROM student_infos si" + "JOIN studnet_scores ss " + "ON si.name=ss.name" + "WHERE ss.score>=80")

    //第三个功能,可以将DataFrame中的数据,理论上说DataFrame对应的RDD的元素,是Row即可

    //将DataFrame中的数据保存到good_student_infos表中
    hiveContext.sql("DROP IF EXISTS TABLE good_student_infos")
    goodStrudentsDF.write.saveAsTable("good_student_infos")

    //第四个工程,可以用table()方法,针对hive表,直接创建DataFrame
    //然后针对good_student_infos表,直接创建DataFrame
    val goodStudentRows = hiveContext.table("good_student_infos").collect

    for (goodStudentRow <- goodStudentRows) {
      System.out.println(goodStudentRow)
    }
    sc.close()
  }
}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值