基于spark的流式数据处理—DStream概述

本文介绍spark streaming的DStream用法:

  1. Spark Streaming工作机制
  2. Spark Streaming程序的基本步骤
  3. 创建StreamingContext对象
Spark Streaming工作机制

在这里插入图片描述

  1. 在Spark Streaming中,会有一个组件Receiver,作为一个长期运行的task跑在一个Executor上;
  2. 每个Receiver都会负责一个input DStream(比如从文件中读取数据的文件流,比如套接字流,或者从Kafka中读取的一个输入流等等);
  3. Spark Streaming通过input DStream与外部数据源进行连接,读取相关数据。
Spark Streaming程序编写的基本步骤
  1. 通过创建DStream来定义输入源(socket、文件流、kafka等等);
  2. 通过对DStream应用转换操作和输出操作来定义流计算;
  3. 用streamingContext.start()来开始接收数据和处理流程;
  4. 通过streamingContext.awaitTermination()方法来等待处理结束(手动结束或因为错误而结束);
  5. 可以通过streamingContext.stop()来手动结束流计算进程;
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值