spark优化

1:参考文档

(1)美团技术团队—>文章归档—>2016年4月份
Spark性能优化指南——基础篇
https://tech.meituan.com/2016/04/29/spark-tuning-basic.html
Spark性能优化指南——高级篇
https://tech.meituan.com/2016/05/12/spark-tuning-pro.html
(2)谷歌浏览器
chrome://flags/
搜索:html
设置:Save Page as MHTML将Disabled—>Enable

2:调优

总共分为四点
(1)开发调优
(2)资源调优
(3)数据倾斜
(4)shuffle

3:开发调优

原则一:避免创建重复的RDD
如果是需要对一个文件进行多次的计算,那么最好就只读一次。即对于同一份数据,只应该创建一个RDD,不能创建多个RDD来代表同一份数据。
原则二:尽可能复用同一个RDD
原则三:对多次使用的RDD进行持久化
程序中产生的中间结果是另一个程序需要使用的数据,那么可以把该数据持久化到内存或磁盘中;避免重复计算,直接从磁盘或者内存当中读取。
原则四:尽量避免使用shuffle类算子
shuffle操作有一个特点:就是上一个阶段必须全部执行完毕之后,下一个阶段才能执行。
能避免则尽可能避免使用reduceByKey、join、distinct、repartition等会进行shuffle的算子;
union、join(按照hash分区,分区数还成倍数,就没有shuffle)不会进行shuffle。
rdd1.join(rdd2) —>reduce join会进行shuffle操作;map join不会进行shuffle操作。
spark如何实现mapjoin?

val bc = sc.broadCast(rdd.toList)
rdd1.foreachPartition(data=>{
val data2 = bc.value //小表数据
val data1 = data //大表数的其中一个分区
data1.join(data2) //这个操作是在每个节点上独立执行的
})

原则五:使用map-side预聚合(combiner)的shuffle操作
shuffle类的算子的缺点数据倾斜,在使用shuffle操作的算子时,如果有map-side预聚合操作的话,那么shuffle的代价会小很多;降低数据倾斜的程度或者避免数据倾斜。
没有map-side预聚合的算子:
groupByKey 有shuffle没有聚合
coGroup
有预聚合的shuffle算子:
reduceByKey(相当于groupByKey + reduce)
combineByKey
aggregateByKey
原则六:使用高性能的算子
使用mapPartitions替代普通map

DStreams RDD
dstreams.foreatchRDD(rdd=>{
rdd.foreachPartition(ptn=>{
rdd.foreach(element=>{
connect.insert()
})
})
})

使用reduceByKey/aggregateByKey替代groupByKey
使用foreachPartitions替代foreach
使用filter之后进行coalesce操作
使用coalesce算子,手动减少RDD的partition数量,将RDD中的数据压缩到更少的partition中去。
使用repartitionAndSortWithinPartitions替代repartition与sort类操作
rdd.reparttition.sort先分区后进行排序
rdd.repartitionAndSortWithinPartitions分区和排序同时进行
原则七:广播大变量
目的是让多个task都要使用的在driver中声明的变量都要维持一个独立副本变成让这个executor中的所有task都公用一个副本。
原则是要广播的数据越大,进行广播这个操作得到的效果越好。如果executor的并发读越高,执行广播变量的收益越好。
效果是executor的内存占用量就减少;网络数据传输减少。
原则八:使用Kryo优化序列化性能
序列化:简单的说就是把一个对象变成010101数组;
反序列化:把01010101这中格式的数组还原成一个对象;
Java中创建对象的方式:构造器、静态工厂方法(私有了构造器)、反射、克隆、反序列化。
spark默认情况下支持Java的原生序列化机制;使用KyroSerializer,使用方式是:
// 设置序列化器为KryoSerializer。
conf.set(“spark.serializer”, “org.apache.spark.serializer.KryoSerializer”)
// 注册要序列化的自定义类型。
conf.registerKryoClasses(Array(classOf[MyClass1], classOf[MyClass2]))
原则九:优化数据结构
Java中,有三种类型比较耗费内存:
对象,每个Java对象都有对象头、引用等额外的信息,因此比较占用内存空间。
字符串,每个字符串内部都有一个字符数组以及长度等额外信息。
集合类型,比如HashMap、LinkedList等,因为集合类型内部通常会使用一些内部类来封装集合元素,比如Map.Entry。
优化措施是尽量不要使用上述三种数据结构:
尽量使用字符串替代对象;
使用原始类型(比如Int、Long)替代字符串;
使用数组替代集合类型,这样尽可能地减少内存占用,从而降低GC频率,提升性能。

4: shuffle调优

随机策略:某些业务结果求不出来
Hash策略:按照关键字的hash值进行分区
范围分区:阶梯(通过采样来避免)
数据倾斜发生的原理
产生的原因:shuffle数据之后导致数据的分布不均匀,数据量不一致,决定了task的执行时长。
数据倾斜发生时的现象
一个计算阶段中切分出来的多个计算任务处理的数据量不均衡,而导致这个阶段的计算时长有最缓慢的那个任务决定。最基本的标准是超过2倍或3倍以上。
如何定位导致数据倾斜的代码
(1)数据倾斜只会发生在shuffle过程中。常用的并且可能会触发shuffle操作的算子:distinct、groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition等。
(2)某个task执行特别慢的情况。
(3)某个task莫名其妙内存溢出的情况。
(4)查看导致数据倾斜的key的数据分布情况。
数据倾斜的解决方案
解决方案一:使用Hive ETL预处理数据
解决方案二:过滤少数导致倾斜的key
解决方案三:提高shuffle操作的并行度
解决方案四:*两阶段聚合(局部聚合+全局聚合)
随机shuffle + hash shuffle
map端预聚合 +
解决方案五:*将reduce join转为map join
mapjoin
优点:完美避免shuffle阶段,没有数据倾斜,应用程序执行效率高
缺点:只适用大小表做关联
reducejoin
优点:通用的join实现
缺点:容易产生数据倾斜
解决方案六:*采样倾斜key并分拆join操作
分拆的标准:
找出数据倾斜key的所有数据,形成一个单独的数据集;
剩下的数据不会出现数据倾斜,单独计算即可;
解决方案七:*使用随机前缀和扩容RDD进行join
解决方案八:*多种方案组合使用

5:资源参数调优

(1)num-executors
用于设置Spark作业总共要用多少个Executor进程来执行。如果不设置的话,默认只会启动少量的Executor进程,Spark作业的运行速度会很慢。
建议:每个Spark作业根据集群资源情况而定,设置太少或太多的Executor进程都不好。
(2)executor-memory
用于设置每个Executor进程的内存。直接决定了Spark作业的性能,常见的JVM OOM异常,也有直接的关联。
建议:每个Executor进程的内存设置4G~8G较为合适。
(3)executor-cores
用于设置每个Executor进程的CPU core数量。决定了每个Executor进程并行执行task线程的能力。因为每个CPU core同一时间只能执行一个task线程,因此每个Executor进程的CPU core数量越多,越能够快速完分配给自己的所有task线程。
建议:Executor的CPU core数量设置为2~4个较为合适。
(4)driver-memory
用于设置Driver进程的内存。
建议:Driver的内存通常来说不设置,或者设置1G左右应该就够了。
(5)spark.default.parallelism
用于设置每个stage的默认task数量。可能会直接影响你的Spark作业性能。
建议:设置该参数为num-executors * executor-cores的2~3倍较为合适。

一个确定的式子
(1)一个spark应用程序:
500个task
50个executor
每个executor执行10个task左右
每个executor分配3 - 5个
总cpu core数:150 - 250
每个executor分配的内存是:2G
整个应用消耗:102G

(2)每个stage中到底有多少个task由谁决定
划分stage的标准:shuffle算子,宽依赖
在一个stage中是有可能有多个RDD的
每一个stage中的task总数,是由这个stage中最后一个RDD的分区数来决定的。

(3)
机器资源配置:
32/64CPU 64G/128G/256G
比如:64 cpu core;128G内存
系统内存(堆外内存)预留:16G,4cpu core;剩余60cpu core,240G内存
每个cpu core 4G内存
每个executor要分配2 - 3 个cpu core,分配的内存8 - 12G

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
完整版:https://download.csdn.net/download/qq_27595745/89522468 【课程大纲】 1-1 什么是java 1-2 认识java语言 1-3 java平台的体系结构 1-4 java SE环境安装和配置 2-1 java程序简介 2-2 计算机中的程序 2-3 java程序 2-4 java类库组织结构和文档 2-5 java虚拟机简介 2-6 java的垃圾回收器 2-7 java上机练习 3-1 java语言基础入门 3-2 数据的分类 3-3 标识符、关键字和常量 3-4 运算符 3-5 表达式 3-6 顺序结构和选择结构 3-7 循环语句 3-8 跳转语句 3-9 MyEclipse工具介绍 3-10 java基础知识章节练习 4-1 一维数组 4-2 数组应用 4-3 多维数组 4-4 排序算法 4-5 增强for循环 4-6 数组和排序算法章节练习 5-0 抽象和封装 5-1 面向过程的设计思想 5-2 面向对象的设计思想 5-3 抽象 5-4 封装 5-5 属性 5-6 方法的定义 5-7 this关键字 5-8 javaBean 5-9 包 package 5-10 抽象和封装章节练习 6-0 继承和多态 6-1 继承 6-2 object类 6-3 多态 6-4 访问修饰符 6-5 static修饰符 6-6 final修饰符 6-7 abstract修饰符 6-8 接口 6-9 继承和多态 章节练习 7-1 面向对象的分析与设计简介 7-2 对象模型建立 7-3 类之间的关系 7-4 软件的可维护与复用设计原则 7-5 面向对象的设计与分析 章节练习 8-1 内部类与包装器 8-2 对象包装器 8-3 装箱和拆箱 8-4 练习题 9-1 常用类介绍 9-2 StringBuffer和String Builder类 9-3 Rintime类的使用 9-4 日期类简介 9-5 java程序国际化的实现 9-6 Random类和Math类 9-7 枚举 9-8 练习题 10-1 java异常处理 10-2 认识异常 10-3 使用try和catch捕获异常 10-4 使用throw和throws引发异常 10-5 finally关键字 10-6 getMessage和printStackTrace方法 10-7 异常分类 10-8 自定义异常类 10-9 练习题 11-1 Java集合框架和泛型机制 11-2 Collection接口 11-3 Set接口实现类 11-4 List接口实现类 11-5 Map接口 11-6 Collections类 11-7 泛型概述 11-8 练习题 12-1 多线程 12-2 线程的生命周期 12-3 线程的调度和优先级 12-4 线程的同步 12-5 集合类的同步问题 12-6 用Timer类调度任务 12-7 练习题 13-1 Java IO 13-2 Java IO原理 13-3 流类的结构 13-4 文件流 13-5 缓冲流 13-6 转换流 13-7 数据流 13-8 打印流 13-9 对象流 13-10 随机存取文件流 13-11 zip文件流 13-12 练习题 14-1 图形用户界面设计 14-2 事件处理机制 14-3 AWT常用组件 14-4 swing简介 14-5 可视化开发swing组件 14-6 声音的播放和处理 14-7 2D图形的绘制 14-8 练习题 15-1 反射 15-2 使用Java反射机制 15-3 反射与动态代理 15-4 练习题 16-1 Java标注 16-2 JDK内置的基本标注类型 16-3 自定义标注类型 16-4 对标注进行标注 16-5 利用反射获取标注信息 16-6 练习题 17-1 顶目实战1-单机版五子棋游戏 17-2 总体设计 17-3 代码实现 17-4 程序的运行与发布 17-5 手动生成可执行JAR文件 17-6 练习题 18-1 Java数据库编程 18-2 JDBC类和接口 18-3 JDBC操作SQL 18-4 JDBC基本示例 18-5 JDBC应用示例 18-6 练习题 19-1 。。。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值