Spark的常用序列化方式

1. 什么是序列化和反序列化?

序列化和反序列化是编程中非常重要的概念,用于在程序运行过程中将对象转换为字节序列,以便于在网络、文件等媒介中进行传输或存储,并在需要的时候将其转化回原始对象。在分布式计算框架中,序列化和反序列化是实现数据传输的必要手段。
序列化:将Java对象转换成字节序列的过程称为序列化。序列化后的字节序列可以被写入到磁盘,或者通过网络传输到远程节点。
反序列化:反序列化是指将序列化后的字节序列还原成原始Java对象的过程。
在 Spark 应用程序中,也需要将数据进行序列化和反序列化操作。Spark 中常用的序列化方式有 Java 序列化、Kryo 序列化和 Avro 序列化,这些序列化方式都提供了序列化和反序列化的功能。
序列化和反序列化在 Spark 应用程序中非常重要,因为 Spark 的API操作需要在Executor节点上执行,而数据也需要被传输到Executor节点上才能执行。通过序列化和反序列化操作,将数据转换为可以在网络上传输的字节流格式,可以大大提高数据传输的效率,从而加速Spark应用程序的执行时间。

2.Java序列化

Java序列化是默认的序列化方式,也是最为简单的一种序列化方式;但是它的缺点是序列化的时间长,生成的序列化数据量也较大。下面这段代码是将RDD对象序列化后保存在HDFS文件中。

spark.sparkContext
.parallelize(Seq((1,"a"),(2,"b"),(3,"c")))
.saveAsObjectFile("hdfs:///tmp/test")

3.Kryo序列化

Kryo是Twitter公司开源的Java序列化库,能够在保证序列化性能瓶颈的情况下,维持更高的压缩率,相比于 Java 序列化,Kryo 序列化具有更快的序列化和反序列化速度,同时还可以减少序列化后的数据大小。

val conf = new SparkConf()
// 配置 Kryo 序列化器
conf.set("spark.serializer","org.apache.spark.serializer.KryoSerializer")
// 注册需要进行序列化的自定义类,这步不做Kryo也可以工作,但会存储自定义类中用到的所有对象的类名全路径,这将会导致耗费大量内存,耗费内存比使用java更大
conf.registerKryoClasses(Array(classOf[MyClass]))
val sc = new SparkContext(conf)
sc.parallelize(Seq((1,"a"),(2,"b"),(3,"c"))).saveAsObjectFile("hdfs:///tmp/test")

3.Avro序列化

Avro序列化以JSON格式作为数据序列化的格式,主要特点是压缩效果好,速度较快,还可跨编程语言使用。

sc.parallelize(Seq((1,"a"),(2,"b"),(3,"c")))
  .map{case(id, name) => (new GenericData.Record(schema), name)}
  .saveAsAvroFile("hdfs:///tmp/test")

这里的 schema 是一个 Avro Schema 对象,通过将样例类转换为 Avro Schema 对象,便可以在使用 Avro 序列化器时进行应用。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值