网易视频云:spark streaming小批量数据流处理系统

当前流行的数据流计算平台是twitter的storm,yahoo的s4等, 这些流计算平台采用record-at-a-time模型: 记录流式达到计算节点, 计算节点依据当前记录进行一定计算,更新节点内部状态,最后输出新记录给下游计算节点。 record-at-a-time模型存在如下问题: 
• 故障处理不足。 有复制和数据回放两种容错方式, 但是这两种方式各有不足。 复制方法消耗两倍资源, 且不能容忍两节点同时故障。 数据回放方法处理故障的方式是, 备份节点回放数据, 重构故障节点的状态, 数据恢复过于慢是这种方法的主要缺点。 
• 慢节点的影响。 流处理速度受限于最慢节点, 当集群增加到一定规模时, 慢节点出出现概率较大, 最终拖慢整体集群整体处理速度。 
• 一致性。 每个计算节点独立工作, 找不到全局一致点。 比如说, 一个节点计算UV,另一个计算PV, 由于节点按照各自的节奏处理数据, 输出的UV和PV并不对应到同一时刻。 
• 实时计算和离线计算不统一。 实时计算和离线数据两套代码,两套实现, 开发和维护代价高。 数据也无法打通, 离线和实时难以实现联合计算。 
图片描述
Spark Streaming的提出就是为了解决这些问题。 如上图所示, 它的数据模型是D-Stream, 按照时间(比如1秒)切分数据流为连续的小批量数据, 每批数据都是Spark中 的RDD结构。 在D-Stream模型下, 数据流处理就转换为针对连续RDD的数据处理。 
先来看一段word count例子:

// 每个1秒产生1个RDD 
val ssc = new StreamingContext(sc, Seconds(1)) 
// Create a DStream that will connect to hostname:port, like localhost:9999 
val lines = ssc.socketTextStream(“localhost”, 9999) 
// Split each line into words 
val words = lines.flatMap(_.split(” “)) 
// Count each word in each batch 
val pairs = words.map(word => (word, 1)) 
val wordCounts = pairs.reduceByKey(_ + _) 
// Print the first ten elements of each RDD generated in this DStream to the console 
wordCounts.print() 
wordcount例子非常简洁,与普通spark程序差别不大, 运行效果是每隔1秒输出这1秒内出现的词及其出现次数。 可以看到D-Stream支持RDD常见操作, 比如map/groupby/reduce等,这些操作作用于D-Stream下面的每个RDD, 将一个D-Stream转换为新的D-Stream。 
除此之外, spark streaming 窗口计算操作符, 譬如countByWindow/reduceByKeyAndWindow等, 这些操作符作用于一个滑动窗口内所有RDD。 基于窗口计算操作符, 我们很容易算出过去任意时间段内的wordcount结果。 
图片描述
流计算很多时候依赖全局状态, spark streaming在这方面也提供了支持。 updateStateByKey操作为每个key维护和更新全局状态, 状态可以是任意类型, updateStateByKey会根据前序状态和业务自定义函数维护全局状态, 其典型的应用场景是用户session分析。 全局状态依赖于D-Stream当前RDD以及前一个全局状态计算得开, 因此计算的开销较大, 尽量避免维护大量全局状态。 
D-Stream模型的优点 
• 延时较低。 RDD模型支持单副本内存存储, 支持较大吞吐率和较低的延迟, D-Stream能做到亚秒级延迟。 
• 容错较强。 record-at-a-time模型容错不足的根本问题在于计算状态和计算本身的耦合, spark streaming做的是把状态和计算本身分离, 使得计算本身无状态, 增强计算弹性。 RDD模型基于血缘关系保证数据可恢复, 正常运行时不需要投入冗余资源, 出现故障时, spark steaming可利用整个集群资源并行恢复数据, 恢复速度快。 此外, 亦不用担心慢节点拖慢在整个集群, 因为无状态计算是可复制的, 通过复制计算到多个节点, 慢节点问题迎刃而解。 
• 一致性保证。 D-Stream每个RDD代表某段时间内所有的数据, D-Stream上各种计算结果都针对相同快照, 保证exact-once语义。 
• 离线处理和实时处理深度融合。 实时的spark streaming和离线spark计算使用相同的数据模型, 具有互操作性。 (1) spark streaming实时处理可以直接利用到离线计算出来的结果。 (2) 可在历史数据之上跑实时计算程序, 在历史数据基础上也能做数据流计算。(3)实时数据库流支持交互式查询, 方面诊断问题。

总结 
spark streaming以小批量计算方式解决数据流计算问题, 相比record-at-a-time模型改进了容错性和一致性, 而最重要的是, 实时计算、离线计算、交互式计算可融为一体, 大幅降低开发和维护代价。 小批量方式势必带来更多延迟, 不过streaming号称能做到亚秒级延迟。 若果真能如此,应用场景非常广泛。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
SQLAlchemy 是一个 SQL 工具包和对象关系映射(ORM)库,用于 Python 编程语言。它提供了一个高级的 SQL 工具和对象关系映射工具,允许开发者以 Python 类和对象的形式操作数据库,而无需编写大量的 SQL 语句。SQLAlchemy 建立在 DBAPI 之上,支持多种数据库后端,如 SQLite, MySQL, PostgreSQL 等。 SQLAlchemy 的核心功能: 对象关系映射(ORM): SQLAlchemy 允许开发者使用 Python 类来表示数据库表,使用类的实例表示表中的行。 开发者可以定义类之间的关系(如一对多、多对多),SQLAlchemy 会自动处理这些关系在数据库中的映射。 通过 ORM,开发者可以像操作 Python 对象一样操作数据库,这大大简化了数据库操作的复杂性。 表达式语言: SQLAlchemy 提供了一个丰富的 SQL 表达式语言,允许开发者以 Python 表达式的方式编写复杂的 SQL 查询。 表达式语言提供了对 SQL 语句的灵活控制,同时保持了代码的可读性和可维护性。 数据库引擎和连接池: SQLAlchemy 支持多种数据库后端,并且为每种后端提供了对应的数据库引擎。 它还提供了连接池管理功能,以优化数据库连接的创建、使用和释放。 会话管理: SQLAlchemy 使用会话(Session)来管理对象的持久化状态。 会话提供了一个工作单元(unit of work)和身份映射(identity map)的概念,使得对象的状态管理和查询更加高效。 事件系统: SQLAlchemy 提供了一个事件系统,允许开发者在 ORM 的各个生命周期阶段插入自定义的钩子函数。 这使得开发者可以在对象加载、修改、删除等操作时执行额外的逻辑。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值