hive中导入csv_Spark SQL 之外部数据源如何成为在企业开发中的一把利器

一、概述

1.Spark1.2中,Spark SQL开始正式支持外部数据源。Spark SQL开放了一系列接入外部数据源的接口,来让开发者可以实现。使得Spark SQL可以加载任何地方的数据,例如mysql,hive,hdfs,hbase等,而且支持很多种格式如json, parquet, avro, csv格式。我们可以开发出任意的外部数据源来连接到Spark SQL,然后我们就可以通过外部数据源API来进行操作。

2.我们通过外部数据源API读取各种格式的数据,会得到一个DataFrame,这是我们熟悉的方式啊,就可以使用DataFrame的API或者SQL的API进行操作哈。

3.外部数据源的API可以自动做一些列的裁剪,什么叫列的裁剪,假如一个user表有id,name,age,gender4个列,在做select的时候你只需要id,name这两列,那么其他列会通过底层的优化去给我们裁剪掉。

4.保存操作可以选择使用SaveMode,指定如何保存现有数据(如果存在)。

二、读取json文件

启动shell进行测试

7d6682c68db562517af0edafc0c1bc32.png
d417618ad4401c9201a66047b78d35c6.png

三、读取parquet数据

d0c9094803b2d5c63ff87cfbb1f64992.png

四、读取hive中的数据

d75bf9c278d69fea0ae647ec84295faf.png

五、保存数据

注意:

  1. 保存的文件夹不能存在,否则报错(默认情况下,可以选择不同的模式):org.apache.spark.sql.AnalysisException: path file:/home/hadoop/data already exists.;
  2. 保存成文本格式,只能保存一列,否则报错:org.apache.spark.sql.AnalysisException: Text data source supports only a single column, and you have 2 columns.;
c132c5bbd565541e692ffd6dd6f0c7b1.png

上面说了在保存数据时如果目录已经存在,在默认模式下会报错,那我们下面讲解保存的几种模式:

8e96b5f69af040a9fabbc27d73a63af7.png

六、读取mysql中的数据

82e41af956d1a047f63b227126602aa6.png

七、spark SQL操作mysql表数据

8329077d40988636a7d5972e075079c7.png

八、分区推测(Partition Discovery)

表分区是在像Hive这样的系统中使用的常见优化方法。 在分区表中,数据通常存储在不同的目录中,分区列值在每个分区目录的路径中编码。 所有内置的文件源(包括Text / CSV / JSON / ORC / Parquet)都能够自动发现和推断分区信息。 例如,我们创建如下的目录结构;

62c991b6963aa464522e02ffead3684e.png

我们使用spark sql读取外部数据源:

c1e51599f9104c209b347c4eca3c6d53.png

我们改变读取的目录

69bde3c2130953f9145c4b6786aa3a26.png

家有没有发现什么呢?Spark SQL将自动从路径中提取分区信息。

注意,分区列的数据类型是自动推断的。目前支持数字数据类型,日期,时间戳和字符串类型。有时用户可能不想自动推断分区列的数据类型。对于这些用例,自动类型推断可以通过

spark.sql.sources.partitionColumnTypeInference.enabled进行配置,默认为true。当禁用类型推断时,字符串类型将用于分区列。

从Spark 1.6.0开始,默认情况下,分区发现仅在给定路径下找到分区。对于上面的示例,如果用户将路径/table/gender=male传递给

SparkSession.read.parquet或SparkSession.read.load,则不会将性别视为分区列。如果用户需要指定启动分区发现的基本路径,则可以basePath在数据源选项中进行设置。例如,当path/to/table/gender=male是数据路径并且用户将basePath设置为path/to/table/时,性别将是分区列。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值