spark streaming学习总结

目录标题

简介及原理

SparkStreaming是Spark核心API的一个扩展,可以实现高吞吐量的,具备容错机制的实时流数据处理。Spark Streaming接收Kafka、Flume、HDFS等各种来源的实时输入数据:

进行处理后,处理结构保存在HDFS、DataBase等各种地方。使用的最多的是kafka+Spark Streaming
Spark处理的是批量的数据(离线数据),Spark Streaming实际上处理并不是像Strom一样来一条处理一条数据,而是对接的外部数据流之后按照时间切分,批处理一个个切分后的文件,和Spark处理逻辑是相同的。
Spark Streaming将接收到的实时流数据,按照一定时间间隔,对数据进行拆分,交给Spark Engine引擎,最终得到一批批的结果。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
SparkSpark Streaming的依赖包总结: 1. Spark依赖包: - Spark Core:包含Spark的核心组件,如RDD、SparkContext等。 - Spark SQL:提供了一种基于结构化数据的编程接口,支持SQL查询和DataFrame API。 - Spark Streaming:提供了一种实时数据处理的编程接口,支持数据流的处理和分析。 - Spark MLlib:提供了一些常用的机器学习算法和工具。 - Spark GraphX:提供了一些图计算的算法和工具。 2. Spark Streaming依赖包: - Spark Streaming Core:包含Spark Streaming的核心组件,如DStream、Receiver等。 - Spark Streaming Kafka:提供了与Kafka集成的工具和API。 - Spark Streaming Flume:提供了与Flume集成的工具和API。 - Spark Streaming Twitter:提供了与Twitter集成的工具和API。 胖包和瘦包的配置: - 胖包:将所有的依赖包都打包到一个jar文件中,方便部署和使用,但是文件较大。 - 瘦包:只打包必要的依赖包,其他依赖包需要在运行时从外部获取,文件较小,但是需要额外的配置。 在Spark中,可以通过以下两种方式来配置胖包和瘦包: 1. 使用sbt或maven等构建工具,在打包时指定依赖包的范围,可以选择打包所有依赖包或只打包必要的依赖包。 2. 在Spark的配置文件中,可以通过spark.driver.extraClassPath和spark.executor.extraClassPath参数来指定额外的依赖包路径,这些依赖包将会被添加到Spark的classpath中。如果使用瘦包,需要将所有的依赖包放到指定的路径下,以便Spark能够找到它们。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值