spark从入门到放弃五十三:Spark Streaming(13)缓存于持久化

与RDD 类似,spark Streaming 也可以让开发人员手动控制,将数据流中的数据持久化到内存中。对DStream 调用persist ( ) 方法,就可以让spark Streaming 自动将该数据流中的所有产生的RDD 都持久化到内存中。如果要对于一个DStream 多次执行操作,那么对DStream 持久化是非常有用的。因为多次操作,可以共享一份数据。
对于基于窗口的操作,例如reduceBywindow 等以及基于状态的操作,比如updateStateKey ,默认就开启了持久化的机制。即spark streaming 默认就会将上述操作产生的DStream 中的数据,缓存内存中,不需要开发人员手动调用peisist 方法
对于通过网络接收数据的输入流,比如socket ,kafka flume 等持久化 级别是将数据复制一份,已便于容错。相当于是用的类似MEMORY_ONLY_SER_2
与RDD 不同的是,默认的持久化级别,统一都是要序列化的。

欢迎关注,更多惊喜等着你

这里写图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值