Spark基础(4):当你df.cache()时,你在cache啥?

本文探讨Spark中的存储级别,重点解析`df.cache()`操作。了解如何通过缓存优化数据处理流程,提升Spark作业的性能。
摘要由CSDN通过智能技术生成

Spark源码学习系列(4):Spark存储大揭密

Spark存储级别

存储级别描述
NONE不进行数据存储
MEMORY_ONLY存储到内存中(cache的级别)
MEMORY_AND_DISK优先存储到存储中,内存不足,磁盘存储
MEMORY_ONLY_SER将RDD中的数据进行序列化,RDD的每个partition会被序列化成一个字节数组
MEMORY_AND_DISK_SER超出内存的分区存储到磁盘上
DISK_ONLY存储到磁盘上
MEMORY_ONLY_2 等复制副本,进行容错
OFF_HEAP存储到分布式内存文件系统中(Spark2.0之前支持)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值