【Spark】Spark SQL 数据类型转换

前言

数据类型转换这个在任何语言框架中都会涉及到,看起来非常简单,不过要把所有的数据类型都掌握还是需要一定的时间历练。

SparkSQL数据类型

数字类型
  • ByteType:代表一个字节的整数。范围是-128到127
  • ShortType:代表两个字节的整数。范围是-32768到32767
  • IntegerType:代表4个字节的整数。范围是-2147483648到2147483647
  • LongType:代表8个字节的整数。范围是-9223372036854775808到9223372036854775807
  • FloatType:代表4字节的单精度浮点数
  • DoubleType:代表8字节的双精度浮点数
  • DecimalType:代表任意精度的10进制数据。通过内部的java.math.BigDecimal支持。BigDecimal由一个任意精度的整型非标度值和一个32位整数组成
  • StringType:代表一个字符串值
  • BinaryType:代表一个byte序列值
  • BooleanType:代表boolean值
  • Datetime类型
    TimestampType:代表包含字段年,月,日,时,分,秒的值
    DateType:代表包含字段年,月,日的值
复杂类型
  • ArrayType(elementType, containsNull):代表由elementType类型元素组成的序列值。containsNull用来指明ArrayType中的值是否有null值
  • MapType(keyType, valueType, valueContainsNull):表示包括一组键 - 值对的值。通过keyType表示key数据的类型,通过valueType表示value数据的类型。valueContainsNull用来指明MapType中的值是否有null值
  • StructType(fields):表示一个拥有StructFields (fields)序列结构的值
    StructField(name, dataType, nullable):代表StructType中的一个字段,字段的名字通过name指定,dataType指定field的数据类型,nullable表示字段的值是否有null值。

Spark SQL数据类型和Scala数据类型对比

sparksql 数据类型scala数据类型
ByteTypeByte
ShortTypeShort
IntegerTypeInt
LongTypeLong
FloatTypeFloat
DoubleTypeDouble
DecimalTypescala.math.BigDecimal
StringTypeString
BinaryTypeArray[Byte]
BooleanTypeBoolean
TimestampTypejava.sql.Timestamp
DateTypejava.sql.Date
ArrayTypescala.collection.Seq
MapTypescala.collection.Map
StructTypeorg.apache.spark.sql.Row
StructFieldThe value type in Scala of the data type of this field (For example, Int for a StructField with the data type IntegerType)

Spark SQL数据类型转换案例

一句话描述:调用Column类的cast方法

如何获取Column类

这个之前写过

df("columnName")            // On a specific `df` DataFrame.
col("columnName")           // A generic column not yet associated with a DataFrame.
col("columnName.field")     // Extracting a struct field
col("`a.column.with.dots`") // Escape `.` in column names.
$"columnName"               // Scala short hand for a named column.
测试数据准备
1,tom,23
2,jack,24
3,lily,18
4,lucy,19
spark入口代码
val spark = SparkSession
      .builder()
      .appName("test")
      .master("local[*]")
      .getOrCreate()
测试默认数据类型
spark.read.
      textFile("./data/user")
      .map(_.split(","))
      .map(x => (x(0), x(1), x(2)))
      .toDF("id", "name", "age")
      .dtypes
      .foreach(println)

结果:

(id,StringType)
(name,StringType)
(age,StringType)

说明默认都是StringType类型

把数值型的列转为IntegerType
 import spark.implicits._
    spark.read.
      textFile("./data/user")
      .map(_.split(","))
      .map(x => (x(0), x(1), x(2)))
      .toDF("id", "name", "age")
      .select($"id".cast("int"), $"name", $"age".cast("int"))
      .dtypes
      .foreach(println)

结果:

(id,IntegerType)
(name,StringType)
(age,IntegerType)
Column类cast方法的两种重载
  • 第一种
    def cast(to: String): Column
    Casts the column to a different data type, using the canonical string representation of the type. The supported types are:
    string, boolean, byte, short, int, long, float, double, decimal, date, timestamp.
// Casts colA to integer.
df.select(df("colA").cast("int"))
Since
1.3.0
  • 第二种
    def cast(to: DataType): Column
    Casts the column to a different data type.
// Casts colA to IntegerType.
import org.apache.spark.sql.types.IntegerType
df.select(df("colA").cast(IntegerType))
// equivalent to
df.select(df("colA").cast("int"))
Spark SQL 数据类型转换Spark SQL 中,可以使用 cast 函数将一个数据类型转换为另一个数据类型。 例如,我们可以将字符串类型转换为整数类型: ``` SELECT CAST("42" AS INT) ``` 这将输出整数值 42。 类似地,我们还可以将整数类型转换为字符串类型: ``` SELECT CAST(42 AS STRING) ``` 这将输出字符串值 "42"。 除了整数和字符串类型之外,Spark SQL 还支持其他一些数据类型转换,例如日期和时间类型。 如何管理 Spark 的分区 Spark 的分区是将数据集拆分成更小的块,以便并行处理。分区的数量可以手动设置,也可以由 Spark 自动确定。 以下是一些管理 Spark 分区的常见方法: 1. 手动设置分区数量:可以使用 repartition 或 coalesce 函数来手动设置分区数量。repartition 函数将数据集重新分区,而 coalesce 函数将数据集合并为更少的分区。 2. 自动确定分区数量:Spark 可以根据数据集的大小和集群的可用资源来自动确定分区数量。可以使用 spark.sql.shuffle.partitions 属性来设置默认分区数量。 3. 控制分区大小:可以使用 mapPartitions 函数来控制每个分区的大小。此函数将应用于每个分区,并返回一个新分区。 4. 手动设置分区的键:可以使用 partitionBy 函数手动设置分区的键。这将根据指定的列将数据集分区。 5. 更改默认的分区策略:可以使用 spark.sql.execution.arrow.enabled 属性来更改默认的分区策略。Arrow 是一种高效的数据格式,它可以减少网络传输和序列化时间,从而提高性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值