SparkStreaming之优雅关闭

package com.atguigu.day09

import java.net.URI

import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.fs.{FileSystem, Path}
import org.apache.spark.SparkConf
import org.apache.spark.streaming.{Seconds, StreamingContext}

/**
  * @ClassName: generalclose
  * @Description:设置优雅关闭
  * 使用外部文件系统来控制内部程序关闭。执行完当前的查询再关闭ssc
  * @Author: kele
  * @Date: 2021/2/19 13:44
  **/
object generalclose {

  def main(args: Array[String]): Unit = {

    //1、创建streamingContext,并设置优雅关闭"spark.streaming.stopGracefullyOnShutdown"="true"
    val ssc = new StreamingContext(new SparkConf().setMaster("local[4]").setAppName("closegeneral").set("spark.streaming.stopGracefullyOnShutdown","true"),Seconds(5))

    ssc.sparkContext.setLogLevel("error")

    //2、读取数据
    val ds = ssc.socketTextStream("hadoop102",9999)

    //3、数据处理
    ds.flatMap(_.split(" "))
      .map((_,1))
      .reduceByKey(_+_)
      .print()

    //4、开启程序
    ssc.start()

    //5、该线程用来检测相应条件下关闭ssc
    new Thread(){
      override def run(): Unit = {

        val fs = FileSystem.get(new URI("hdfs://hadoop102:8020"),new Configuration(),"atguigu")

        //导入break的依赖包
        import scala.util.control.Breaks._

        breakable({

          while(true){
            //判断hdfs上ooo文件夹是否存在,如果ooo文件夹不存在,则关闭ssc
            if( !fs.exists(new Path("hdfs://hadoop102:8020/input/ooo")) ){

              //设置为优雅关闭
              ssc.stop(true,true)
              break()
            }
          }

        })
      }
      //开启检查停止
    }.start()

    //6、阻塞程序
    ssc.awaitTermination()
  }
}

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值