1、spark Streaming是一个微批处理的框架
2、批处理时间间隔 batchInterval
>> 表示在batchInterval时间内Spark 所接收的数据被当做一个批次做处理
3、批处理时间间隔(batchInterval)、窗口长度(windowLen)、窗口滑动时间(windowSlide)之间的关系
>> 3.1 spark提交作业最小的单位是batchInterval即在batchInterval时间内的数据作为数据处理最小的单位
>> 3.2 windowLen 表示处理的"数据量"即处理的数据量是batchInterval的N倍,N具体是几就要看windowLen是batchInterval的几倍
>> 3.3 windowSlide 表示提交作业的时长,也是batchInterval的整数倍
>> 3.4 eg:如果 batchInterval=t, windowLen=10t, windowSlide=3t
>> 此时,spark每次会处理最近10t时间内的数据,即每3t时间处理一次,处理的数据时最近10t内的数据
>> 在现实中比如天猫双11的销售额,每10秒钟处理一下最近24小时的销售额,这个10秒钟就是windowSlide,24小时就是windowLen
>> 由此可见,windowLen和windowSlide都必须是batchInterval的整数倍
4、DStream的原理以及与RDD的关系
>> 4.1 DStream是针对RDD的抽象,表示一系列在时间上连续的RDD
>> 4.2 Dstream中包含3大部分(1)、DStream之间的依赖关系,即操作链依赖 (2)、一系列