spark.shuffle.file.buffer, 默认是32k
spark.shuffle.memoryFraction, 0.2
map端内存缓冲,reduce端内存占比
默认情况下,shuffle的map task,输出到磁盘文件的时候,统一都会先写入到每个task自己关联的一个内存缓冲区,
这个默认的内存缓冲区默认是32Kb
每一次当内存缓冲区满溢后,然后才会进行溢写到磁盘中
reduce task,在进行聚合的操作的时候,实际上,使用的就是自己对应的executor的内存,executor(其实对应的就是一个jvm进程,堆),默认executor内存中划分给reduce task进行聚合的比例,是0.2
问题来了,因为比例是0.2,所以就很有可能会出现,拉取过来的数据很多,那么在内存中,放不下,然后得溢写到磁盘
如果不调会出现什么问题呢?
每个task就处理320kb,32kb,总共会向磁盘溢写320/32 = 10次
在map task处理的数据量比较大的情况下,而你的task的内存缓冲默认是比较小 的,可能会造成多次的map端往磁盘文件的split溢写操作,发生磁盘IO,从而降低性能。
reduce端聚合内存,占比,默认是0.2.如果数据量比较大,reduce task拉取过来的数据很多,那么就会频繁发生reduce端内存不够用,频繁溢写到磁盘,磁盘IO,降低性能。
调节上面说的那俩个参数,调节的时候的原则,spark.shuffle.file.buffer,每次扩大一倍,然后看看效果
spark.shuffle.memoryFraction 每次提高0.1,看看效果
也不能调的太大