spark SQL (四)数据源 Data Source----Parquet 文件的读取与加载

 spark SQL Parquet 文件的读取与加载

    是由许多其他数据处理系统支持的柱状格式。Spark SQL支持阅读和编写自动保留原始数据模式的Parquet文件。在编写Parquet文件时,出于兼容性原因,所有列都会自动转换为空。

1, 以编程方式加载数据

   这里使用上一节的例子中的数据:常规数据加载

  private def runBasicParquetExample(spark: SparkSession): Unit = {
     import spark.implicits._
    //
    val peopleDF = spark.read.json("examples/src/main/resources/people.json")
    //DataFrames可以保存为Parquet文件,维护模式信息
    peopleDF.write.parquet("people.parquet")


    //在上面创建的parquet文件中读取
    // Parquet文件是自描述的,所以模式被保存
    //加载Parquet文件的结果也是一个DataFrame 
    val parquetFileDF = spark.read.parquet("people.parquet")


    // Parquet文件也可以用来创建临时视图,然后在SQL语句
     parquetFileDF.createOrReplaceTempView("parquetFile")
    val namesDF = spark.sql("SELECT name FROM parquetFile WHERE age BETWEEN 13 AND 19")
    namesDF.map(attributes => "Name: " + attributes(0)).show()
    // +------------+
    // |       value|
    // +------------+
    // |Name: Justin|
    // +------------+
  }
2,分区操作

      表分区是像Hive这样的系统中常用的优化方法。在分区表中,数据通常存储在不同的目录中,分区列值在每个分区目录的路径中编码。现在,Parquet数据源能够自动发现和推断分区信息。例如,我们可以使用以下目录结构,两个额外的列gender和country分区列将所有以前使用的人口数据存储到分区表中:

path
└── to
    └── table
        ├── gender=male
        │   ├── ...
        │   │
        │   ├── country=US
        │   │   └── data.parquet
        │   ├── country=CN
        │   │   └── data.parquet
        │   └── ...
        └── gender=female
            ├── ...
            │
            ├── country=US
            │   └── data.parquet
            ├── country=CN
            │   └── data.parquet
            └── ...
     通过传递path/to/table给SparkSession.read.parquet或者SparkSession.read.load,Spark SQL将自动从路径中提取分区信息。现在,返回的DataFrame的模式变成:
root
|-- name: string (nullable = true)
|-- age: long (nullable = true)
|-- gender: string (nullable = true)
|-- country: string (nullable = true)
     请注意,分区列的数据类型是自动推断的。目前支持数字数据类型和字符串类型。有时用户可能不希望自动推断分区列的数据类型。对于这些用例,可以使用spark.sql.sources.partitionColumnTypeInference.enabled默认 的自动类型推断来配置true。当禁用类型推断时,字符串类型将用于分区列。
      从Spark 1.6.0开始,默认情况下,分区仅在给定路径下找到分区。对于上面的例子,如果用户传递path/to/table/gender=male给 SparkSession.read.parquet或者SparkSession.read.load,gender将不会被视为分区列。如果用户需要指定启动分区发现的基本路径,则可以basePath在数据源选项中进行设置。例如,何时path/to/table/gender=male将数据的路径和用户设置basePath为path/to/table/,gender将成为分区列。
3, scheme 合并

     像ProtocolBuffer,Avro和Thrift一样,Parquet也支持模式演变。用户可以从简单的模式开始,并根据需要逐渐向模式添加更多的列。通过这种方式,用户可能会以不同的但是 相互兼容的模式结束多个Parquet文件。Parquet数据源现在可以自动检测这种情况并合并所有这些文件的模式。
     由于模式合并是一个相对昂贵的操作,并且在大多数情况下不是必需的,所以我们从1.5.0开始默认关闭它。你可以通过

      1)  将数据源选项设置mergeSchema为true读取Parquet文件(如下面的示例所示)

       2)设置全局SQL选项spark.sql.parquet.mergeSchema来true。

例子如下:

  private def runParquetSchemaMergingExample(spark: SparkSession): Unit = {

    import spark.implicits._

    // 创建一个简单的DataFrame,存储到一个分区目录
    val squaresDF = spark.sparkContext.makeRDD(1 to 5).map(i => (i, i * i)).toDF("value", "square")
    squaresDF.write.parquet("data/test_table/key=1")

    //在新的分区目录中创建另一个DataFrame,
    //添加一个新的列并删除一个现存的列
    val cubesDF = spark.sparkContext.makeRDD(6 to 10).map(i => (i, i * i * i)).toDF("value", "cube")
    cubesDF.write.parquet("data/test_table/key=2")

    //读取分区表
    val mergedDF = spark.read.option("mergeSchema", "true").parquet("data/test_table")
    mergedDF.printSchema()

    //最终的模式由Parquet文件中的所有3列组成
    //分区列出现在分区目录路径中
    // root
    //  |-- value: int (nullable = true)
    //  |-- square: int (nullable = true)
    //  |-- cube: int (nullable = true)
    //  |-- key: int (nullable = true)
    // $example off:schema_merging$
  }
4, Hive metastore Parquet
     在读取和写入Hive metastore Parquet表格时,Spark SQL将尝试使用自己的Parquet支持而不是Hive SerDe来获得更好的性能。此行为由spark.sql.hive.convertMetastoreParquet配置控制 ,并默认打开。

Hive / Parquet Schema调解
     Hive和Parquet从表模式处理的角度来看,有两个关键的区别。
      1)hive 是不区分大小写的,而Parquet不是   

      2) Hive认为所有列都是可以空的,而Parquet的可空性是显着的
由于这个原因,在将Hive metastore Parquet表转换为Spark SQL Parquet表时,我们必须将Hive Metastore模式与Parquet模式协调一致。协调规则是:
     在两个模式中具有相同名称的字段必须具有相同的数据类型,而不管是否为空。协调字段应该具有Parquet方面的数据类型,以保证可空性。
协调的模式恰好包含在Hive Metastore模式中定义的那些字段。
     1)仅出现在Parquet模式中的任何字段将被放置在协调的模式中。
     2) 仅在Hive Metastore模式中出现的任何字段才会作为可协调字段添加到协调模式中。
 元数据刷新
        Spark SQL缓存Parquet元数据以获得更好的性能。当Hive Metastore Parquet表转换启用时,这些转换表的元数据也被缓存。如果这些表由Hive或其他外部工具更新,则需要手动刷新以确保一致的元数据。

spark.catalog.refreshTable("my_table")
5,Configuration配置

Parquet的结构可以用做setConf方法上SparkSession或通过运行 SET key=value使用SQL命令



Property Name
DefaultMeaning
spark.sql.parquet.binaryAsStringfalse一些其他派奎斯生产系统,特别是Impala,Hive和旧版本的Spark SQL,
在写出Parquet架构时不会区分二进制数据和字符串。该标志告诉Spark SQL
将二进制数据解释为字符串以提供与这些系统的兼容性。
spark.sql.parquet.int96AsTimestamptrue 一些Parquet生产系统,特别是Impala和Hive,将时间戳存储到INT96中。
该标志告诉Spark SQL将INT96数据解释为一个时间戳,以提供与这些系统的兼容性。
spark.sql.parquet.cacheMetadatatrue打开Parquet模式元数据的缓存。可以加快查询静态数据。
spark.sql.parquet.compression.codecsnappy设置写入Parquet文件时使用的压缩编解码器。可接受的值包括:未压缩,快速,
gzip,lzo。
spark.sql.parquet.filterPushdowntrue设置为true时启用Parquet过滤器下推优化。
spark.sql.hive.convertMetastoreParquettrue当设置为false时,Spark SQL将使用Hive SerDe来替代内置支持的Parquet表。
spark.sql.parquet.mergeSchemafalse
如果为true,则Parquet数据源合并从所有数据文件收集的模式,否则如果
没有摘要文件可用,则从摘要文件或随机数据文件中选取模式。
spark.sql.optimizer.metadataOnlytrue如果为true,则启用使用表元数据的仅限元数据查询优化来生成分区列,而
不是表扫描。当扫描的所有列都是分区列时,该查询将适用,并且查询具有
满足不同语义的聚合运算符。






  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark SQL可以通过以下方式读取不同格式的数据: 1. MySQL:可以使用JDBC连接器读取MySQL数据库中的数据。 2. JSON:可以使用Spark SQL内置的JSON数据源读取JSON格式的数据。 3. Parquet:可以使用Spark SQL内置的Parquet数据源读取Parquet格式的数据。 4. CSV:可以使用Spark SQL内置的CSV数据源读取CSV格式的数据。 5. 普通文本:可以使用Spark SQL内置的文本数据源读取普通文本格式的数据。 以上这些数据源都可以通过Spark SQL的API进行读取和处理。 ### 回答2: Spark SQLSpark提供的用于处理结构化数据的模块,可以读取多种格式的数据,包括MySQL、JSON、Parquet、CSV以及普通文本。 对于MySQL数据的读取Spark SQL可以通过JDBC连接到MySQL数据库,然后使用SQL语句查询并加载数据到DataFrame中进行进一步处理和分析。 对于JSON数据的读取Spark SQL提供了read.json方法来加载JSON文件或目录,并将其解析为DataFrame,然后可以对其进行操作和分析。 对于Parquet数据的读取Spark SQL也提供了read.parquet方法,通过指定Parquet文件或目录路径,可以加载并解析为DataFrame,然后进行进一步处理与分析。 对于CSV数据的读取Spark SQL可以使用read.csv方法加载CSV文件或目录,并解析为DataFrame进行后续处理与分析。 对于普通文本数据的读取Spark SQL可以使用read.text方法加载文本文件或目录,并将其按行解析为DataFrame,然后进行进一步处理与分析。 总结来说,Spark SQL提供了丰富的API方法来读取不同格式的数据,包括MySQL、JSON、Parquet、CSV以及普通文本,将其解析为DataFrame进行进一步处理和分析,提供了便捷高效的数据处理能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值