Spark知识点(SparkStreaming)

SparkStreaming是什么?

SparkStirng称为准实时(秒,分钟),微批次(时间)数据处理框架

简单的体会

创建环境对象

val sparkConf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("Streaming")
val ssc: StreamingContext = new StreamingContext(sparkConf, Seconds(3))

StreamingContext中第一个参数代表环境的配置,第二个参数表示 批处理的周期 (采集周期)

在这里插入图片描述
这里进行的wordCount的Demo,输入数据的时候利用空格隔开
他不能使用ssc.stop()直接关闭,运行程序直接结束,我们还怎么传数据?
所以我们启动采集器,加上等待采集器的执行

这里我们利用netcat工具(使用方法,在netcat文件夹下,启动cmd程序,输入指令)
然后同时运行我们的程序
在这里插入图片描述
可以看到当我们输入单词的时候,控制台每隔3秒就会输出统计的信息,但是这个信息并不会累计,这就叫无状态数据操作

无状态数据操作

只对当前的采集周期内的数据进行处理

有状态数据操作

在这里插入图片描述
注意的是:
在使用有状态数据操作是,使用checkpoint保存数据,因为我需要存储数据,存哪里?存内存中?如果数据流很多很大,不久内存就会溢出,所以得用checkpoint

transform操作

没有transform的操作
在这里插入图片描述

transform后的操作

在这里插入图片描述
其实就是Dstream转换为RDD进行操作,那和Dstream有什么区别?
他们其实就是执行位置,因为每一个执行周期都会形成一个RDD,而transform后,就可以在每一个执行周期都能够进行自己的转换。最外层的Driver端只会执行一次。

窗口操作 (WindowOperations)

怎么理解?
假定我的采集周期为3s,但是我并不想立刻处理,我等3个采集周期后才进行处理,这个就涉及到了窗口函数的范围了(图中蓝色的框)。处理完以后,我是不是得“滑动”到下一个地方再进行采集?
在这里插入图片描述
这个窗口的滑动,会导致数据发生一个曲线的改变

(hello,1)=>(hello,3)=>(hello,2)=>(hello,0)。。。。。

窗口函数的范围应该是 采集周期整数倍

在这里插入图片描述

但是问题是他会有一个重复的数据,这个时候我们调整一下“步长”,也就是窗口下一次滑动的距离,当“步长”大于或者等于窗口函数范围的时候,就不会有重复数据。(大于的时候会造成数据的丢失)
在这里插入图片描述

优雅的关闭

什么时候关闭,当逻辑发生改变,业务发生改变的时候。
如果我们直接关闭,还有一些数据没有处理完成,就不太好了
流式任务需要 7*24 小时执行,但是有时涉及到升级代码需要主动停止程序,但是分
布式程序,没办法做到一个个进程去杀死,所有配置优雅的关闭就显得至关重要了。

这个时候我们可以使用外部系统来控制内部程序关闭

在这里插入图片描述

在这里插入图片描述
这里获取了文件系统也就是HDFS,然后再文件系统中,取得一个路径,就是stopSpark,判断是否存在,如果存在,我们再判断是否是存在状态,我们可以再进行关闭。

数据恢复

因为我们把程序停止了,再启动的时候,数据需要恢复过来
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值