1、对于RDD中某些函数使用注意
(1)能不使用groupByKey函数就不使用,除非不得已
redcueByKey(combiner) = groupBy+ map(变量值相加)
redcueByKey可以先进行本地聚合操作
(2)尽量使用XXPartition函数代替XX函数
xx:map/foreach/zip
def foreach(f: T => Unit): Unit
f:针对RDD中每个元素进行的操作处理的
def foreachPartition(f: Iterator[T] => Unit): Unit
f:针对RDD中每个分区的元素进行操作处理的
比如RDD中2个分区,100条数据,现将数据报道MYSQL表中
foreach
item ->mysql
connection ->创建100次
foreachPartition
对每个分区中数据
只要获取2个连接即可
(3)适当的降低或者增加RDD分区数目
RDD的分区对应一个Task处理数据
def repartition(numPartitions: Int) -产生shuffle
def coalesce(numPartitions: Int, shuffle: Boolean = false)
一开始的时候,数据量比较多,可以加到RDD分分区数,增加并行度(在集群资源充足的情况下)
当数据预处理之后(尤其过滤清洗之后)。RDD中数据量减少了很多,此时可以考虑减少分区的数目
2、RDD的复用以及RDD持久化
对有可能多次使用的RDD,我们可以把他进行持久化
避免创建重复的RDD
尽可能复用同一个RDD
对多次使用的RDD进行持久化
def persist(newLevel: StorageLevel)
def unpersist(blocking: Boolean = true)
class StorageLevel private(
private var _useDisk: Boolean, //磁盘
private var _useMemory: Boolean, //内存
//JVM内存中tachyon(基于内存的分布式文件系统)
private var _useOffHeap: Boolean, /
private var _deserialized: Boolean, 反序列化
private var _replication: Int = 1) //副本个数
extends Externalizable
什么情况下,RDD数据需要进行持久化呢???
(1)某个RDD数据,被多次使用
重复RDD
(2)某个RDD数据来自不易,使用超过1次
经过复杂的处理得到RDD
(3)通常选择的策略
MEMORY_ONLY_2 -如果内存足够
MEMORY_AND_DISK_SER_2 -如果内存不够,先内存后磁盘