Flink(林子雨慕课课程)

12.Flink

12.1 Flink简介
  • 企业的处理架构已经由传统数据处理架构和大数据Lamda架构向流处理架构演变

    image-20231012195556890

  • Flink实现了Goole Dataflow模型,具有高吞吐,高性能,低延迟的特点

    • 同时支持批处理和流处理
  • Flink的主要特征:

    • 批流一体化
    • 精密的状态管理
    • 事件时间支持
    • 精确一次的状态一致性保障
  • Flink不仅支持在YARN、Mesos、Kubernetes多种资源管理框架之上,也支持在裸机集群上独立部署

  • 再启用高可用选项后,它不存在单点失效问题

  • Flink可以扩展到数千核心,状态可以达到TB级别,仍然能够达到高吞吐、低延迟的特性

    image-20231012200301143

12.2 为什么要选择Flink
  • 传统的数据处理架构

    • 传统的数据处理架构的特点:使用中心化数据库系统来存储事务性数据

      image-20231012200735986

  • 大数据Lambda架构

    • 随着企业数据量的不断增长,关系型数据库已经无法满足海量数据的存储需求

    • 越来越多企业借助Hadoop、MapReduce、Spark等来处理分析数据仓库中的数据【仓库中的数据是采用周期性加载的方式】

      image-20231012201037865

    • Lambda架构方案:处理不同类型的数据;以满足企业不用应用的需求

      image-20231012201122045

      Lambda架构需要同时管理两套系统:可能会导致复杂度过高、运维成本高的问题

    • 流处理架构

      • 让数据记录持续的从数据源流向应用数据,并在各个应用程序之间持续流动

        image-20231012201415069

      • 流处理架构分为消息传输层和流处理层

        • 消息传输层:从各种数据源采集连续事件产生的数据,并传输订阅给这些数据的应用程序

        • 流处理层:持续地将数据在应用程序和系统间移动,聚合并处理事件,并在本地维持应用程序的状态;

        • 应用程序的状态指的是流数据产生的中间计算结果

          image-20231012201643565

        • 流处理架构的核心:是使得各种应用程序互联在一起的消息队列

          image-20231012201851826

          流数据处理架构正在取代传统的数据处理架构和Lamda架构,成为大数据处理架构的新趋势

            1. 流处理计算框架丢弃了大型集中式数据库,避免了数据库不堪重负
            2. 将批处理看成流处理的子集,这样可以使用流处理框架解决批处理问题
            3. 因此流处理框架就同时集成了流计算和批量计算
  • Flink是理想的流计算框架

    image-20231012202348845

  • Flink的高级特性

    • 提供有状态的计算
    • 支持状态管理
    • 支持强一致性的语义
    • 支持对消息乱序的处理
  • Flink的优势

    • 同时支持高吞吐、低延迟、高性能

    • 同时支持流处理和批处理

      image-20231012202805555

    • 高度灵活的流式窗口

      • 一个窗口是若干元素的集合,流计算以窗口为基本单位进行数据处理

        • 可分为时间驱动的Time Window【每隔相同时间】

        • 或者数据驱动的Count Window【相同数据量】

          image-20231012203015419

        • 窗口可以分为:翻滚窗口(Tumbling Window,无重叠);滚动窗口(Sliding Window,有重叠);以及会话窗口(Session Window)

    • 支持有状态计算

      • 无状态计算

        image-20231012203214496

      • 有状态计算:需要基于多个事件来输出结果

        image-20231012203308801

    • 具有良好的容错性

      image-20231012203401952

      • 容错机制:通过创建分布式数据流快照:即轻量、高频率、性能影响小
    • 具有独立的内存管理

      • Flink独立管理JVM内存,获得C一样的性能、避免内存溢出的发生

      • Flink使用序列化和反序列化将所有数据对象转化为二进制在内存中存储,其有效的降低数据存储空间,有效利用内存空间,降低了垃圾回收机制造成的性能下降和任务异常

        image-20231012203758851

    • 支持迭代和增量迭代

      • 对于迭代来说,有时并不是单次迭代产生的结果都需要进入下一个迭代

      • 如果只需要重新计算部分数据,选择性地更新解集,就是增量迭代

        image-20231012203957038

      • 增量迭代可以使一些算法执行的更高效

        • 可以使得算法专注于“热点”数据部分,使得大部分数据冷却的非常快,数据规模将大幅度减小

          image-20231012204126041

  • Flink设计思想

    image-20231012204155418

12.3 Flink应用场景
  • Flink常见场景

    • 事件驱动型应用
    • 数据分析应用
    • 数据流水线应用
  • 事件驱动型应用:具有状态的应用

    • 从一个或者多个事件数据流中读取数据,并根据到来的数据作出反应,如触发计算、状态更新、其他外部动作

      image-20231012205705917

    • 事件驱动型应用:从传统的应用设计进化而来

      • 传统的应用设计:包括独立的计算和数据存储层,应用会从远程事务数据库中读取数据

        image-20231012205911744

      • 事务驱动型应用:是建立在有状态流处理应用之上,数据和计算不相互独立,应用放在本地的磁盘,就可以获取数据

        image-20231012210046564

    • 传统应用和事件驱动型应用架构的区别
      image-20231012210249237

    • 典型的事件驱动型应用
      image-20231012210416343

    • 事件驱动型应用的优势

      • 只访问本地数据,不需要查询远程数据库,无论是在吞吐量还是延迟方面,都能获得更好的性能
      • 向一个远程的持久化存储周期性地写入检查点,可以采用异步或者增量的方式,因此检查点对于常规的事件处理影响是很小的
      • 它不仅局限于本地数据访问,而是适合远程访问
    • 事件驱动型应用:Flink的优势

      • Flink支持丰富的状态操作原语

      • 管理大量的数据(可以达到TB级别)

      • 确保“精确一次”的一致性

      • 支持事件时间、高度可定制的窗口逻辑和细粒度的时间控制

        以帮助实现高级的商业逻辑
        image-20231012214040520

  • Flink有复杂时间处理(CEP)类库,可以检测数据流模式

  • Flink作为事件驱动型的突出特性:

    • 保存点(savepoint):它是一个一致性的状态镜像,相互兼容应用的初始化点;给定一个保存点之后可以放心对应用进行升级和扩容

      还可以启动多个应用,以完成A/B测试

  • 数据分析应用

    • 分析应用会从原始数据中提取信息,得到富有洞见的观察

    • 传统的数据分析:会先进行事件数据记录,然后在有界的数据集上进行数据分析

      • 若需要将最新的查询应用到数据分析中,需要将最新的数据添加到查询集,然后重新运行查询,查询结果会被写入到存储系统中,或者形成报表

        image-20231012214829137

    • 对于高级流处理引擎,需要进行实时数据分析:它读取实时事件流,连续产生和更新查询结果

      image-20231012215102518

      这些结果或者被保存在外部数据库中,或者作为内部数据被维护,若需要查询结果

      image-20231012215207197

    • Flink同时支持批量分析和流式分析

      image-20231012215242797

    • 典型的数据分析应用

      image-20231012215317076

    • 连续流式分析的优势

      • 消除了周期性的导入和查询,从事件中获取洞察结果的延迟会更低

      • 流式查询不需要处理输入数据中人为产生的边界

      • 流式分析具有更加简单的应用架构

        • 一个批量分析的流水线会有独立组件,来周期性调度数据提取、查询执行,其操作起来复杂

          image-20231012215649937

          一个组件失败就会直接影响到流水线中的其他步骤

        • 运行在高级流处理器上的流式分析应用(如Flink):会将数据提取到连续结果的所有步骤整合起来,可以依赖底层引擎提供的故障恢复机制

          image-20231012215905380

    • Flink如何支持数据分析应用

      image-20231012220343682

      因此不管应用在静态数据集和实时数据流上运行SQL查询,都能得到相同的结果

      image-20231012220702226

      • Flink可以自定义处理逻辑:通过DataStream API和DataSet API

        image-20231012221008968

      • Flink的Gelly库:为批量数据集的大规模高性能图分析提供了算法和构建模块

  • 数据流水线应用

    • ETL(Extract-transform-load):存储系统之间转换和移动数据的常见方法

    • 数据流水线:转换、清洗、转移数据,但是采用的是连续流模式,而不是周期性的触发

      image-20231012222032777

    • 数据流水线工作方式

      image-20231012222111901

      或:

      image-20231012222142995

    • 典型的数据流水线应用

      image-20231012222233526

    • 数据流水线的优势

      • 减少了数据转移过程中的延迟
      • 持续消费和发送数据,因此用途更广,支持用例也更多
    • Flink如何支持数据流水线的应用

      • Flink可以解决许多常见的数据转换问题

        image-20231012222453185

      • 大量连接器,连接不同类型的数据存储系统

        image-20231012222551712

      • Flink提供了连续型数据源,用于监控目录变化

      • Flink提供数据槽sink,以时间分区的方式写入文件

12.4 Flink技术栈、体系架构和编程模型
  • Flink核心组件栈

    image-20231012222815880

    • 物理部署层(底层)

      • 可以采用Local模式运行,启动单个JVM
      • 或者可以采用Standalone的集群模式运行,或者YARN的集群模式运行
      • 还可以运行在GCE(谷歌云服务)、EC2(亚马逊云服务)
    • Runtime核心层(核心实现层):对上层不同接口提供基础服务

      • 其提供了两套API:DataStream API用户流处理,DataSet API用于批处理
    • APIs&Libraries层

      • 其除了两套接口之外,还抽象出不同类型的组件库
      • CEP:基于流处理的复杂事件处理库
      • SQL&Table库:既可以支持流处理,又可以支持批处理
      • FlinkML:基于批处理的机器学习库
      • Gelly:基于批处理的图计算库
  • Flink的体系架构

    image-20231012223834750

    • 执行Flink程序

      • JobClient将作业提交给JobManager

      • JobManager需要负责资源分配和作业执行,首先进行资源分配,分配完成之后,任务将提交给相应的TaskManager

      • TaskManager启动线程开始执行

      • TaskManager执行过程中会向bManager报告状态更改,如开始执行、进行中、完成等

      • JobManager的作业执行完成之后,结果将返回给客户端

        image-20231012224224223

  • Flink 编程模型

    image-20231012224301842

    • 最低级的接口:状态化的数据流接口,这个接口通过过程函数集合和DataStream API中

      image-20231012224403519

      该接口允许用户自由处理多个流中的事件

      并使用一致的容错状态

      用户也可以通过注册事件时间和处理回调函数来执行复杂的计算

    • 大部分应用不需要底层抽象,而是针对核心API进行编程

      • DataStream API:针对有界或者无界的流数据
      • DataSet API:针对有界数据集

      这些API为数据处理提供了大量、通用的模块,如:转换、窗口、连接、聚合等

      DataStream API :集成底层的处理函数 对一些处理操作提供更低层次的抽象

      DataSet API: 对有界数据集提供格外的支持 如循环和迭代

    • Table API:以表为中心,能够动态修改表;是一个扩展的关系模型

      表是二维数据结构,类似关系数据库中的表

      API提供了可比较的操作,如:select、project、join、group-by、aggregate等

      Table API程序定义的是应该执行什么样的逻辑操作,而不是直接准确地制定程序代码的运行步骤

      尽管Table API可以通过用户自定义函数(UDF)进行扩展,它在表达能力上还是不如核心API,但是其使用起来更加简洁(代码量更少)

      Table API设置了内置优化器进行优化,用户可以在表和DataStream、DataSet之间进行无缝切换

      且允许核心API和TableAPI的混合使用

      image-20231012225634985

    • 最高级接口:SQL

      • 其在语法和表达能力上与Table API类似,唯一的区别是通过SQL查询语言实现程序

      • SQL API可以直接在Table API上定义的表上执行

        image-20231012225944650

12.5 Flink的安装和编程实战

见:Flink安装与编程实践(Flink1.16.2)_厦大数据库实验室博客 (xmu.edu.cn)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Flink课程考试题分为理论和实践两个部分,总共有10道题目。下面是对其中两道题目的详细回答。 1. Flink的数据流处理模型是什么?请简要解释其基本原理。 Flink的数据流处理模型是基于流式数据的批处理和实时处理引擎。它支持以事件驱动的方式进行数据处理,每个事件在处理时的状态是不断变化的。Flink的基本原理是将数据流划分为无限多的小块,称为微批,然后对每个微批进行处理。Flink引擎会利用基于时间的窗口将数据源中的数据按照时间进行划分,并进行操作,使用事件时间作为窗口的边界。Flink还支持处理迟到的事件,并且可以处理乱序的事件。借助基于数量的窗口和基于时间的窗口,Flink可以在流式数据中进行高效的计算和聚合操作。 2. 在Flink中,窗口函数有哪些类型?请简要描述每种类型的功能和用例。 Flink中有四种类型的窗口函数:滚动窗口函数、滑动窗口函数、会话窗口函数和全局窗口函数。 - 滚动窗口函数将数据流划分为固定长度的窗口,并对每个窗口中的数据进行计算。它适用于对连续时间段内的数据进行实时计算操作,如计算每天或每小时的平均值。 - 滑动窗口函数将数据流划分为多个重叠的固定长度窗口,并对每个窗口中的数据进行计算。它适用于需要对连续时间段内的数据进行实时计算操作,并且需要考虑窗口之间的重叠。例如,计算每段时间内的滑动平均值。 - 会话窗口函数将相邻的数据聚合到同一个窗口,并在一段时间内对该窗口中的数据进行计算。它适用于需要根据事件之间的间隔来划分窗口的场景,例如,计算用户的活动会话时间。 - 全局窗口函数将数据流划分为一个长期的全局窗口,并对整个数据流进行计算。它适用于需要对整个数据流进行聚合操作的场景,如计算数据流的总和或平均值。 以上是对Flink课程考试题的简要回答,希望能够帮助到您。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值