在Spark structured streaming中读取使用kryo序列化的kafka的数据

本文介绍了如何在Spark Structured Streaming中处理Kafka存储的Kryo序列化数据。通过自定义反序列化类VideoEventDataKryoDeSerializer,实现了减少数据存储量的目标。Spark默认使用ByteArrayDeserializer,但可以通过自定义方式处理Kryo序列化的Kafka消息。
摘要由CSDN通过智能技术生成

一、 问题详细描述

  1. 本文不是描述如何在spark中配置kryo序列化
  2. spark中仍然使用的是java原生的序列化机制
  3. kafka存储的数据是使用kryo序列化的,也可以按照类似的方法去自定义反序列化

二、文件描述

(1)kafka存储的数据:VideoEvent
(2)反序列化类: VideoEventDataKryoDeSerializer
(3)spark读取kafka的数据并且进行反序列化:ReadPhotoKryo (其实就是简单的map函数和反序列化函数就行了)

三、使用目的

(1)减少数据的存储量,之前使用的是json格式序列化保存。这里原有的数据量为:30(FPS)*60(s)19201080(JPG),使用不同的序列化方式(json、protostuff、kryo)上传到kafka broker进行对比,因为应用需求,最终选择了kryo.
(2)在spark中kafka consumer的配置,是不可以专门指定key.deserializer和value.deserializer,他会被默认使用ByteArrayDeserializer。所以value一般为字节。参考官方链接 http://spark.apache.org/docs/latest/structured-streaming-kafka-integration.html
(3)还有一种方式,使用的是scala,实现与本文相似的功能,参考链接[https://databricks.com/blog/2017/04/26/processing-data-in-apache-kafka-with-structured-streaming-in-apache-spark-2-2.html],(https://databricks.com/blog/2017/04/26/processing-data-in-apache-kafka-with-structured-streaming-in-apache-spark-2-2.html)
在这里插入图片描述

四、代码

代码后期仍需修正,先给出简易可行版本

4.1 存储的数据 VideoEvent.java

ublic class VideoEventData  implements Serializable {
   
private Timestamp timestamp;
	private int rows;
	private int cols;
	private int type;
	private byte[] jpgImageBytes = null;
	private String data;
	public VideoEventData(){
   }
	public VideoEventData(String cameraId, Timestamp timestamp, int rows, int cols, int type, byte[] jpgImageBytes, String data) {
   
		this.cameraId = cameraId;
		this.timestamp = timestamp;
		this.rows = rows;
		this.cols = cols;
		this.type = type;
		this.jpgImageBytes = jpgImageBytes;
		this.data = data;
	}
	//getter/setter.....
	
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值