Spark Streaming调优参数及最佳实践深入剖析-Spark商业调优实战

本套技术专栏是作者(秦凯新)平时工作的总结和升华,通过从真实商业环境抽取案例进行总结和分享,并给出商业应用的调优建议和集群环境容量规划等内容,请持续关注本套博客。版权声明:禁止转载,欢迎学习。QQ邮箱地址:1120746959@qq.com,如有任何商业交流,可随时联系。

1 开门见山

1.1 优化1:进行HA机制处理-针对updateStateByKey与window等有状态的操作

  • HA高可用性:High Availability,如果有些数据丢失,或者节点挂掉;如果不想让你的实时计算程序挂了,就必须做一些数据上的冗余副本,保证你的实时计算程序可以7 * 24小时的运转。

  • 针对updateStateByKey与window等有状态的操作,自动进行checkpoint,必须设置checkpoint目录。

      HDFS:SparkStreaming.checkpoint("hdfs://192.168.1.105:9090/checkpoint"),
    复制代码
  • checkpoint 会把数据保留一份在容错的文件系统中,一旦内存中的数据丢失掉;就可以直接从文 件系统中读取数据,不需要重新进行计算。

      JavaStreamingContext jssc = new JavaStreamingContext(
            conf, Durations.seconds(5));  
      jssc.checkpoint("hdfs://192.168.1.105:9000/streaming_checkpoint");
    复制代码

1.2 优化2:进行HA机制处理-针对Driver高可用性

  • 在创建和启动StreamingContext的时候,将元数据写入容错的文件系统(比如hdfs)。保证在driver挂掉之后,spark集群可以自己将driver重新启动起来;而且driver在启动的时候,不会重新创建一个streaming context,而是从容错文件系统(比如hdfs)中读取之前的元数据信息,包括job的执行进度,继续接着之前的进度,继续执行。

  • 使用这种机制,就必须使用cluster模式提交,确保driver运行在某个worker上面;

      JavaStreamingContextFactory contextFactory = new JavaStreamingContextFactory() {
          @Override
         public JavaStreamingContext create() {
           	JavaStreamingContext jssc = new JavaStreamingContext(...);
          	JavaDStream<String> lines = jssc.socketTextStream(...);
          	jssc.checkpoint(checkpointDirectory);
          	return jssc;
            }
          };
     JavaStreamingContext context = JavaStreamingContext.getOrCreate(checkpointDirectory, contextFactory);
     context.start();
     context.awaitTermination();
    复制代码
  • JavaStreamingContext.getOrCreate 基于Function0< JavaStreamingContext > 进行Driver高可用

     Function0<JavaStreamingContext> createContextFunc = new Function0<JavaStreamingContext>(){
     	@Override
     	public JavaStreamingContext call() throws Exception
     	{
     		conf = new SparkConf()
     				.setMaster("local[4]")
     				.setAppName("java/RealTimeStreaming")
     				.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
     				.set("spark.default.parallelism", "10")
     				.set("spark.streaming.blockInterval", "50")
     				.set("spark.streaming.receiver.writeAheadLog.enable", "true");
     		Map<String, Object> kafkaParams = new HashMap<>();
     		kafkaParams.put("bootstrap.servers", "Master:9092,Worker1:9092,Worker2:9092");
     		kafkaParams.put("key.deserializer", StringDeserializer.class);
     		kafkaParams.put("value.deserializer", StringDeserializer.class);
     		kafkaParams.put("group.id", "TestGroup");
     		kafkaParams.put("auto.offset.reset", "latest");
     		kafkaParams.put("enable.auto.commit",true);
    
     		JavaStreamingContext jssc = new JavaStreamingContext(
     				conf, Durations.seconds(30));
     		jssc.checkpoint("hdfs://Master:9000/checkpoint");
    
     		// 构建topic set
     		String kafkaTopics = ConfigurationManager.getProperty(Constants.KAFKA_TOPICS);
     		String[] kafkaTopicsSplited = kafkaTopics.split(",");
     		Set<String> topics = new HashSet<String>();
     		for(String kafkaTopic : kafkaTopicsSplited) {
     			topics.add(kafkaTopic);
     		}
    
     		JavaInputDStream<ConsumerRecord<String, String>> adRealTimeLogDStream = KafkaUtils.createDirectStream(jssc,
     				LocationStrategies.PreferConsistent(),
     				ConsumerStrategies.Subscribe(topics, kafkaParams));
    
     		hostMap = adRealTimeLogDStream.mapToPair(record -> new Tuple2<String, String>(record.key(), record.value()));
    
     		logPeakDstream  = hostMap.mapToPair(new PairFunction<Tuple2<String, String>, String, Long>() {
     			@Override
     			public Tuple2<String,Long> call(Tuple2<String, String> tuple) throws Exception {
     				String log = tuple._2;
     				String[] logSplited = log.split("\\|");
     				String eventTime= logSplited[1];
     				String todayDate = DATE_FORMAT.format(new Date()).trim();
     				String cutTime= eventTime.substring(13,eventTime.length()-7);
    
     				String ip = logSplited[0].trim();
     				String host = logSplited[14].trim();
     				return new Tuple2<String, Long>(host+"-"+ip, 1L);
     			}
     		});
    
     		hostReduce = logPeakDstream.reduceByKeyAndWindow(new Function2<Long, Long, Long>() {
     			@Override
     			public Long call(Long v1, Long v2) throws Exception {
     				return v1 + v2;
     			}
     		}, Durations.minutes(10),Durations.seconds(30));
    
     		JavaPairDStream<String, Long> topNPairRdd = hostReduce.transformToPair(new Function<JavaPairRDD<String, Long>, JavaPairRDD<String, Long>>() {
     			@Override
     			public JavaPairRDD<String, Long> call(JavaPairRDD<String, Long> rdd) throws Exception {
     				JavaPairRDD<Long, String> sortRDD = (JavaPairRDD<Long, String>) rdd.mapToPair(record -> new Tuple2<Long, String>(record._2, record._1));
     				JavaPairRDD<String, Long> sortedRdd = (JavaPairRDD<String, Long>) sortRDD.sortByKey(false).mapToPair(record -> new Tuple2<String, Long>(record._2, record._1));
    
     				List<Tuple2<String, Long>> topNs = sortedRdd.take(5);//取前5个输出
     				System.out.println("                                                 ");
     				System.out.println("*****************峰值访问窗统计*******************");
     				for (Tuple2<String, Long> topN : topNs) {
     					System.out.println(topN);
     				}
     				System.out.println("**********************END***********************");
     				System.out.println("                                                 ");
     				return sortedRdd;
     			}
     		});
    
     		topNPairRdd.foreachRDD(new VoidFunction<JavaPairRDD<String, Long>>() {
     			@Override
     			public void call(JavaPairRDD<String, Long> rdd) throws Exception {
    
     			}
     		});
    
     		logDetailDstream = hostMap.map(new Function<Tuple2<String,String>, String>() {
     			@Override
     			public String call(Tuple2<String, String> tuple) throws Exception {
     				String log = tuple._2;
     				String[] logSplited = log.split("\\|");
     				String eventTime= logSplited[1];
     				String todayDate = DATE_FORMAT.format(new Date()).trim();
     				String cutTime= eventTime.substring(13,eventTime.length()-7);
     				String[] urlDetails = logSplited[7].split("/");
     				String ip = logSplited[0].trim();
    
     				String url ="";
     				if(urlDetails.length==4){
     					url = urlDetails[3];
     				}else if(urlDetails.length==5){
     					url = urlDetails[3] + "/" + urlDetails[4];
     				}else if(urlDetails.length>=6){
     					url = urlDetails[3] + "/" + urlDetails[4]+ "/" + urlDetails[5];
     				}
     				String host = logSplited[14].trim();
     				String dataTime =todayDate +" "+ cutTime;
     				String bytesSent = logSplited[5].trim();
     				return  dataTime+" "+host+" "+ip+" "+url+" "+bytesSent;
     			}
     		});
     		//logDetailDstream.print();
     		return jssc;
     	}
     };
     return createContextFunc;
    复制代码
  • 提交方式

      spark-submit
              --deploy-mode cluster
              --supervise
    复制代码

1.3 优化3:实现RDD高可用性:启动WAL预写日志机制

  • spark streaming,从原理上来说,是通过receiver来进行数据接收的;接收到的数据,会被划分成一个一个的block;block会被组合成一个batch;针对一个batch,会创建一个rdd;

  • receiver接收到数据后,就会立即将数据写入一份到容错文件系统(比如hdfs)上的checkpoint目录中的,另一份写入到磁盘文件中去;作为数据的冗余副本。无论你的程序怎么挂掉,或者是数据丢失,那么数据都不肯能会永久性的丢失;因为肯定有副本。

      SparkConf conf = new SparkConf()       
          			.setMaster("local[2]")
          			.setAppName("StreamingSpark");
          			.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer");
          			.set("spark.default.parallelism", "1000");
          			.set("spark.streaming.blockInterval", "50");    
          			.set("spark.streaming.receiver.writeAheadLog.enable", "true");   
      JavaStreamingContext jssc = new JavaStreamingContext(conf, Durations.seconds(5)); 
      jssc.checkpoint("hdfs://192.168.1.164:9000/checkpoint");
    复制代码

1.4 优化4:InputDStream并行化数据接收

  • 创建多个InputDStream来接收同一数据源

  • 把多个topic数据细化为单一的kafkaStream来接收

       1:创建kafkaStream
       Map<String, String> kafkaParams = new HashMap<String, String>();
       kafkaParams.put("metadata.broker.list", "192.168.1.164:9092,192.168.1.165:9092,192.168.1.166:9092");
       kafkaParams.put("zookeeper.connect","master:2181,data1:2181,data2:2181");
       
       构建topic set
       String kafkaTopics = ConfigurationManager.getProperty(Constants.KAFKA_TOPICS);
       String[] kafkaTopicsSplited = kafkaTopics.split(",");
    
       Set<String> topics = new HashSet<String>();
       for(String kafkaTopic : kafkaTopicsSplited) {
       	topics.add(kafkaTopic);
       	
       JavaPairInputDStream<String, String> kafkaStream = KafkaUtils.createDirectStream(
       	jssc, 
       	String.class, 
       	String.class, 
       	StringDecoder.class, 
       	StringDecoder.class, 
       	kafkaParams, 
       	topics);
    
       2:InputDStream并行化数据接收
           int numStreams = 5;
           List<JavaPairDStream<String, String>> kafkaStreams = new
           ArrayList<JavaPairDStream<String,String>>(numStreams);
           
           for (int i = 0; i < numStreams; i++) {
           	kafkaStreams.add(KafkaUtils.createStream(...));
          	 }
           JavaPairDStream<String, String> unifiedStream = 
       	streamingContext.union(kafkaStreams.get(0), kafkaStreams.subList(1, kafkaStreams.size()));
           unifiedStream.print();
    复制代码

1.5 优化5:增加block数量,增加每个batch rdd的partition数量,增加处理并行度

  • 第一步:receiver从数据源源源不断地获取到数据,首先是会按照block interval,将指定时间间隔的数据,收集为一个block;默认时间是200ms,官方推荐不要小于50ms;
  • 第二步:根据指定batch interval时间间隔合并为一个batch,创建为一个rdd,
  • 第三步:启动一个job,去处理这个batch rdd中的数据。
  • 第四步:batch rdd 的partition数量是多少呢?一个batch有多少个block,就有多少个partition;就意味着并行度是多少;就意味着每个batch rdd有多少个task会并行计算和处理。
  • 调优:如果希望可以比默认的task数量和并行度再多一些,可以手动调节blockinterval,减少block interval。每个batch可以包含更多的block。因此也就有更多的partition,因此就会有更多的task并行处理每个batch rdd。

1.6 优化6:重分区,增加每个batch rdd的partition数量

  • inputStream.repartition():重分区,增加每个batch rdd的partition数量 对dstream中的rdd进行重分区为指定数量的分区,就可以提高指定dstream的rdd的计算并行度
  • 调节并行度具体细节:

1.7 优化7:提升并行度

      方法1: spark.default.parallelism
      方法2: reduceByKey(numPartitions)
复制代码

	JavaPairDStream<String, Long> dailyUserAdClickCountDStream = dailyUserAdClickDStream.reduceByKey(
			new Function2<Long, Long, Long>() {
				private static final long serialVersionUID = 1L;
				@Override
				public Long call(Long v1, Long v2) throws Exception {
					return v1 + v2;
				}
			});
			}, 1000);
复制代码

1.8 优化8:使用Kryo序列化机制

  • spark streaming:提高序列化task发送到executor上执行的性能,比如:task很多的时候,task序列化和反序列化的性能开销也比较可观

  • 默认输入数据的存储级别是StorageLevel.MEMORY_AND_DISK_SER_2,receiver接收到数据,默认就会进行持久化操作;首先序列化数据,存储到内存中;如果内存资源不够大,那么就写入磁盘;而且,还会写一份冗余副本到其他executor的block manager中,进行数据冗余。

      SparkConf conf = new SparkConf()       
      		.setMaster("local[2]")
      		.setAppName("StreamingSpark");
      		
      		.set("spark.serializer", "org.apache.spar.serializer.KryoSerializer"); <= 优化点
      		
      		.set("spark.default.parallelism", "1000");
      		.set("spark.streaming.blockInterval", "50");    
      		.set("spark.streaming.receiver.writeAheadLog.enable", "true");   
    复制代码

1.9 优化9:batch interval:流式处理时间必须小于batch interval

  • batch interval,就是指每隔多少时间收集一次数据源中的数据,然后进行处理,因此切忌处理时间过长导致的batch interval。

      JavaStreamingContext jssc = new JavaStreamingContext(conf, Durations.seconds(5));  
    复制代码

1.10 优化10:缓存需要经常使用的数据

调用rdd.cache()来缓存数据,这样也可以加快数据的处理,但是我们需要更多的内存资源

1.11 优化11:定时清除不需要的数据

  • 通过配置spark.cleaner.ttl为一个合理的值,但是这个值不能过小,因为如果后面计算需要用的数据被清除会带来不必要的麻烦。
  • 另外通过配置spark.streaming.unpersist为true(默认就是true)来更智能地去持久化(unpersist)RDD。这个配置使系统找出那些不需要经常保有的RDD,然后去持久化它们。这可以减少Spark RDD的内存使用,也可能改善垃圾回收的行为。

1.12 优化12:GC优化策略(暂时不确定)

建议用并行Mark-Sweep垃圾回收机制,虽然它消耗更多的资源,但是我们还是建议开启。 在spark-submit中使用

--driver-java-options "-XX:+UseConcMarkSweepGC"
--conf "spark.executor.extraJavaOptions=-XX:+UseConcMarkSweepGC"
复制代码

1.13 优化13:去除压缩

在内存充足的情况下,可以设置spark.rdd.compress 设置为false.

1.14 优化14:Executors和cpu核心数设置和Spark On Yarn 动态资源分配

  • 首先需要对YARN的NodeManager进行配置,使其支持Spark的Shuffle Service。

       ##修改
      <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle,spark_shuffle</value>
      </property>
      ##增加
      <property>
      <name>yarn.nodemanager.aux-services.spark_shuffle.class</name>
      <value>org.apache.spark.network.yarn.YarnShuffleService</value>
      </property>
      <property>
      <name>spark.shuffle.service.port</name>
      <value>7337</value>
      </property>
    复制代码
  • 将spark中对应jar包拷贝到hadoop的目录下:

      首先找到spark版本的spark-<version>-yarn-shuffle.jar
      shuffle包,并将该包放到集群所有NodeManager的classpath下,
      比如放到HADOOP_HOME/share/hadoop/yarn/lib
    复制代码
  • 重启所有NodeManager。

  • 配置示例如下:

      spark.shuffle.service.enabled=true
      spark.dynamicAllocation.enabled=true
      spark.dynamicAllocation.executorIdleTimeout=60s
      spark.dynamicAllocation.initialExecutors=1
      spark.dynamicAllocation.maxExecutors=5
      spark.dynamicAllocation.minExecutors=0
      
      spark-submit \
      --master yarn \
      --deploy-mode cluster \
      --executor-cores 3 \
      --executor-memory 10G \
      --driver-memory 4G \
      --conf spark.dynamicAllocation.enabled=true \
      --conf spark.shuffle.service.enabled=true \
      --conf spark.dynamicAllocation.initialExecutors=5 \
      --conf spark.dynamicAllocation.maxExecutors=40 \
      --conf spark.dynamicAllocation.minExecutors=0 \
      --conf spark.dynamicAllocation.executorIdleTimeout=30s \
      --conf spark.dynamicAllocation.schedulerBacklogTimeout=10s \
    复制代码

1.15 优化15:使用高性能算子

使用reduceByKey/aggregateByKey替代groupByKey 使用mapPartitions替代普通map 使用foreachPartitions替代foreach 使用filter之后进行coalesce操作 使用repartitionAndSortWithinPartitions替代repartition与sort类操作

1.16 优化16:SparkStreaming 与kafka整合调优

LocationStrategies 位置策略:

The new Kafka consumer API will pre-fetch messages into buffers. Therefore it is important for performance 
reasons that the Spark integration keep cached consumers on executors (rather than recreating them for each 
batch), and prefer to schedule partitions on the host locations that have the appropriate consumers.
复制代码

新的Kafka消费者API可以预获取消息缓存到缓冲区,因此Spark整合Kafka让消费者在executor上进行缓存对性能是非常有助的,可以调度消费者所在主机位置的分区。

In most cases, you should use LocationStrategies.PreferConsistent as shown above. This will distribute partitions 
evenly across available executors. If your executors are on the same hosts as your Kafka brokers, use PreferBrokers,
which will prefer to schedule partitions on the Kafka leader for that partition. Finally, if you have a significant 
skew in load among partitions, use PreferFixed. This allows you to specify an explicit mapping of partitions to 
hosts (any unspecified partitions will use a consistent location).
复制代码

通常,你可以使用 LocationStrategies.PreferConsistent,这个策略会将分区分布到所有可获得的executor上。如果你的executor和kafkabroker在同一主机上的话,可以使用PreferBrokers,这样kafka leader会为此分区进行调度。最后,如果你加载数据有倾斜的话可以使用PreferFixed,这将允许你制定一个分区和主机的映射(没有指定的分区将使用PreferConsistent 策略)

The cache for consumers has a default maximum size of 64. If you expect to be handling more than 
(64 * number of executors) Kafka partitions, you can change this setting
via spark.streaming.kafka.consumer.cache.maxCapacity
复制代码

消费者默认缓存大小是64,如果你期望处理较大的Kafka分区的话,你可以使用spark.streaming.kafka.consumer.cache.maxCapacity设置大小。

The cache is keyed by topicpartition and group.id, so use a separate group.id for each call to createDirectStream.
复制代码

缓存是使用key为topic partition 和组id的,因此对于每一次调用 createDirectStream 可以使用不同的 group . id

public  static SparkConf  conf = new SparkConf()
				.setMaster("local[4]")
				.setAppName("java/RealTimeStreaming")
				.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
				.set("spark.default.parallelism", "10")
				.set("spark.streaming.blockInterval", "50")
				.set("spark.streaming.receiver.writeAheadLog.enable", "true");
Map<String, Object> kafkaParams = new HashMap<>();
kafkaParams.put("bootstrap.servers", "Master:9092,Worker1:9092,Worker2:9092");
kafkaParams.put("key.deserializer", StringDeserializer.class);
kafkaParams.put("value.deserializer", StringDeserializer.class);
kafkaParams.put("group.id", "TestGroup");
kafkaParams.put("auto.offset.reset", "latest");
kafkaParams.put("enable.auto.commit",true);

JavaStreamingContext jssc = new JavaStreamingContext(
		conf, Durations.seconds(30));
jssc.checkpoint("hdfs://Master:9000/checkpoint");

构建topic set
String kafkaTopics = ConfigurationManager.getProperty(Constants.KAFKA_TOPICS);
String[] kafkaTopicsSplited = kafkaTopics.split(",");
Set<String> topics = new HashSet<String>();
for(String kafkaTopic : kafkaTopicsSplited) {
	topics.add(kafkaTopic);
		}
		
JavaInputDStream<ConsumerRecord<String, String>> adRealTimeLogDStream = KafkaUtils.createDirectStream(jssc,
		LocationStrategies.PreferConsistent(),
		ConsumerStrategies.Subscribe(topics, kafkaParams));
复制代码

1.17 优化17:SparkStreaming 优雅退出

    public static void main(String[] args) throws Exception{
		Logger.getLogger("org").setLevel(Level.ERROR);
		//String checkpointPath = PropertiesUtil.getProperty("streaming.checkpoint.path");
		JavaStreamingContext javaStreamingContext = JavaStreamingContext.getOrCreate("hdfs://Master:9000/streaming_checkpoint", createContext());
		javaStreamingContext.start();

		每隔20秒钟监控是否有停止指令,如果有则优雅退出streaming
		final Properties serverProps = PropertiesUtil.properties;
		Thread thread = new Thread(new MonitorStopThread(javaStreamingContext,serverProps));
		thread.start();
		javaStreamingContext.awaitTermination();
	   }
    }
复制代码

2 结语

Spark Streaming是一个非常优秀的批处理程序,我已经综合了我所有的调优经验,当然后续有可优化的点,我会及时补充的。辛苦成文,各自珍惜。

秦凯新 20181119 0:23

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值