spark 内存溢出

博客探讨了Spark内存溢出的几个常见原因,包括直接collect、mappartitions操作、数据不平衡和coalesce调用。建议在面临内存溢出问题时,可以使用repartition方法调整分区,以减少内存压力。同时指出,避免使用coalesce直接合并分区,因为它可能导致内存增加,而应该使用repartition进行shuffle操作。
摘要由CSDN通过智能技术生成

 

直接collect ,如果数据量大,也会出现内存溢出

mappartitions 如果数据大,也会出现内存溢出

 

1.map过程产生大量对象导致内存溢出

这种溢出的原因是单个map中产生了大量的对象导致的

例如:rdd.map(x=>for(i<-1 to 10000) yield i.tostring)

这个操作在rdd中,每个对象产生了10000个对象,肯定很容易产生内存溢出,针对这种问题,在不增加内存下,

通过减少每个task的大小,以便达到每个task 即使产生大量的对象executor的内存也能够装得下,具体做法可以在产生大量对象的

map操作之前调用repartition方法,分区成更小的块传入map,例如:map.repartition(10000).map()

面对这种问题主题,不能使用rdd.coalesce方法,这个方法只能减少分区,不能增加分区,不会有shuffle的过程

2.数据不平衡大致内存溢出

数据不平衡除了有可能导致内存溢出外,也有可能导致性能的问题,解决方法和上面说的类似,就是调用

repartition重新分区

3.coalesce调用导致内存溢出

这是我最近才遇到的一个问题,因为hdfs中不适合存小问题,所以Spark计算后如果产生的文件太小,我们会调用coalesce合并文件再存入hdfs中。但是这会导致一个问题,例如在coalesce之前有100个文件,这也意味着能够有100个Task,现在调用coalesce(10),最后只产生10个文件,因为coalesce并不是shuffle操作&#

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值