【Spark Streaming】(二)DStream 编码实战_简述dstream的编程模型(1)

文章目录

一、前言

从前一篇博客 【Spark Streaming】(一)架构及工作原理 🌺,我们了解到 Sprak Streaming 是属于 Saprk API 的扩展,它支持实时数据流(live data streams)的可扩展,高吞吐(hight-throughput) 容错(fault-tolerant)的流处理。可以接受来自KafKa、Flume、ZeroMQ、Kinesis 、Twitter或TCP套接字的数据源,处理的结果数据可以存储到文件系统、数据库、现场dashboards等。

二、DStream 编程模型

Dstream 是 Spark Streaming 中的高级抽象连续数据流,这个数据源可以从外部获得(如KafKa / Flume 等),也可以通过输入流获得,还可以通过在其他 DStream 上进行高级操作创建,DStream 是通过一组时间序列上连续的 RDD表示的,所以一个 DStream 可以看作是一个 RDDs 的序列。(关于 DStream 的深入了解,可看第一篇博客 ! 🚀)

  • 21
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值