flink面试常见题带答案(持续更新)

本文详细介绍了ApacheFlink的基本概念,包括事件流、有状态计算和时间语义。讨论了Flink如何通过Checkpoint确保数据一致性,以及其容错机制。此外,还涵盖了Flink的API层次、运行时组件、任务提交流程、分区策略和状态管理等内容,为Flink面试提供关键知识点。
摘要由CSDN通过智能技术生成

1. 什么是Apache Flink (为什么使用 Flink 替代 Spark?)

  • Apache Flink 是一个开源的基于流的有状态计算架。它是分布式地执行的,具备低延迟、高吞吐的优秀性能,并且非常擅长处理有状态的复杂计算逻辑场景。

2. Flink的核心概念

  • Event Streams:即事件流,事件流可以是实时的也可以是历史的。Flink 是基于流的,但它不止能处理流,也能处理批,而流和批的输入都是事件流,差别在于实时与批量。
  • State: Flink 擅长处理有状态的计算。通常的复杂业务逻辑都是有状态的,它不仅要处理单一的事件,而且需要记录一系列历史的信息,然后进行计算或者判断
  • Time: 最主要处理的问题是数据乱序的时候,一致性如何保证
  • Snapshots: 实现了数据的快照、故障的恢复,保证数据一致性和作业的升级迁移等

3. 作业在很多情况下有可能会失败。失败之后重新去运行时,我们如何保证数据的一致性?

  • Fink 基于 Chandv-Lampot 算法,会把分布式的每一个节点的状态保存到分布式文件系统里面作为 Checkpoint(检点),过程大致如下。首先,从数据源端开始注入 Checkpoint Barrier,它是一种比较特殊的消息。
  • 然后它会跟普通的事件一样随着数据流去流动,当 Barrier 到达算子之后,这个算子会把它当前的本地状态进行快照保存,当 Barrier流动到 Sink,所有的状态都保存完整了之后,它就形成一个全局的快照。
  • 这样当作业失败之后,就可以通过远程文件系统里面保存的 Checkpoint 来进行回滚:先把 Source 回滚到 Checkpoint 记录的ofset,然后把有状态节点当时的状态回滚到对应的时间点,进行重新计算。这样既可以不用从头开始计算,又能保证数据语义的一致性。

4. Flink的时间语义

  • Event Time: 事件创建的时间
  • Ingestion Time: 数据进入Flink的时间
  • Processing Time: 执行操作算子的本地系统时间,与机器相关

5. Flink的API可分为哪几层?

  • SQL & Tale AP!同时适用于批处理和流处理,这意味着你可以对有界数据流和无界数据流以相同的语义进行查询,并产生相同的结果。除了基本查询外, 它还支持自定义的标量函数,聚合函数以及表值函数,可以满足多样化的查询需求。
  • DataStream & DataSet API 是 Flink 数据处理的核心 APL,支持使用 Java 语言或 Scala 语言进行调用,提供了数据读取,数换和数据输出等一系列常用操作的封装。
  • Stateful Stream Processing 是最低级别的抽象,它通过 Process Function 函数内嵌到 DataStream AP1 中。ProcessEunction 是 Elink 提供的最底层 API,具有最大的灵活性,允许开发者对于时间和状态进行细粒度的控制。

6. Flink运行时组件

    1. 作业管理器 (JobManager)
    • 1.控制一个应用程序执行的主进程,也就是说,每个应用程序都会被一个不同的Jobmanager所控制执行
    • 2.Jobmanager会先接收到要执行的应用程序,这个应用程序会包括: 作业图(Job Graph) 、逻辑数据流图 (Logical dataflowgraph) 和打包了所有的类、库和其它资源的JAR包。
    • 3.Jobmanager会把Jobgraph转换成一个物理层面的数据流图,这个图被叫做“执行图”Executiongraph),包含了所有可以并发执3行的任务。Job Manager会向资源管理器(Resourcemanager) 请求执行任务必要的资源,也就是任务管理器(Taskmanacer)上的插槽slot。一旦它获取到了足够的资源,就会将执行图分发到真正运行它们的 Taskmanager上。而在运行过程中Jobmanagera会负责所有需要中央协调的操作,比如说检查点(checkpoints)的协调。
    1. 任务管理器 (TaskManager)
    • 1.Flink中的工作进程。通常在 Flink中会有多个Taskmanager运行,每个Taskmanager都包含了一定数量的插槽(slots)。插槽的数量限制了Taskmanager能够执行的任务数量。
    • 2.启动之后,Taskmanager会向资源管理器注册它的插槽,收到资源管理器的指令后,Taskmanager就会将一个或者多个插槽提供给Jobmanager调用。Jobmanager就可以向插槽分配任务(tasks)来执行了。
    • 3.在执行过程中,一个Taskmanager可以跟其它运行同一应用程序的Taskmanager交换数据
    1. 资源管理器 (ResourceManager)
    • 1.主要负责管理任务管理器(TaskManager)的插槽(slot)Taskmanger插槽是Flink中定义的处理资源单元
    • 2.Flink为不同的环境和资源管理工具提供了不同资源管理器,比如YARN、K8s,以及 standalone部署。
    • 3.当Jobmanager申请插槽资源时,Resourcemanager会将有空闲插槽的Taskmanager分配给Jobmanager。如果Resourcemanager没有足够的插槽来满足 Jobmanaer的请求,它还可以向资源提供平台发起会话,以提供启动 Taskmanager进程的容器。

7. flink任务提交流程

  • 1.Flink任务提交后,Client向HDFS上传Flink的Jar包和配置
  • 2.随后向Yarn ResourceManager提交任务,ResourceManager分配Container资源并通知对应的NodeManager启动
  • 3.ApplicationMaster,ApplicationMaster启动后加载Flink的Jar包和配置构建环境
  • 4.然后启动 JobManager,之后ApplicationMaster向ResourceManager申请资源启动 TaskManager
  • 5.ResourceManager分配Container资源后,由ApplicationMaster通知资源所在节点的NodeManager启动TaskManager
  • 6.NodeManager加载Flink的Jar包和配置构建环境并启动TaskManager
  • 7.TaskManager启动后向JobManager发送心跳包,并等待JobManager向其分配任务

8. flink执行图

Flink中的执行图可以分成四层: Streamgraph -> Jobgraph -> Executiongraph -> 物理执行图

  • 1.Streamgraph: 是根据用户通过 Stream APl编写的代码生成的最初的图。用来表示程序的拓扑结构。
  • 2.Jobgraph: Streamgraph经过优化后生成了 Jobgraph,提交给 Jobmanager的数据结构。主要的优化为,将多个符合条件的节点chain在一起作为一个节点。
  • 3.Execution Graph: Jobmanager根据 Jobgraph生成,是 Jbgraph的并行化版本,是调度层最核心的数据结构。
  • 4.物理执行图: Jobmanager根据 Executiongraph对Job进行调度后,在各个Taskmanager上部署Task后形成的“图”,并不是一个具体的数据结构。

9. flink的分区策略

  • 按照key值分区
  • 全部发往一个分区
  • 广播
  • 上下游并行度一样时一对一发送
  • 随机均匀分配
  • 轮流分配

10. Flink 的状态分为哪两类

作为对状态支持比较好的系统,Flink内部提供了可以使用的很多种可选的状态原语。从大的角度看.所有状态可以分为KeyedState和OperatorState 两类。

11.KeyedState都有哪几类

Keyed State 可以进一步划分为下面的 5 类,它们分别是
。比较常用的: ValueState、ListState、MapState
。不太常用的: ReducingState 和 AggregationState

12.Flink中watermark的概念

  • watermark是一种街量Event Time进展的机制,它是数据本身的一个隐藏属性。通常基于Event Time的数据,自身都包含一个timestamp.watermark是用于处理乱序事件的,而正确的处理乱序事件,通常用walermark机制结合window来实现。
  • 流处理从事件产生,到流经source,再到operator,中间是有一个过程和时间的。虽然大部分情况下,流到operator的数据都是按照事件产生的时间顺序来的,但是也不排除由于网络、背压等原因,导致乱序的产生 ou-of-order或者说late element)。
    但是对于late element,我们又不能无限期的等下去,必须要有个机制来保证一个特定的时间后,必须发window去进行计算了。这个特别的机制,就是watermark。

13.什么是Flink的全局快照

  • 全局快照首先是一个分布式应用,它有多个进程分布在多个服务器上:
  • 其次,它在应用内部有自己的处理逻辑和状态:
  • 第三,应用间是可以互相通信的:
  • 第四,在这种分布式的应用,有内部状态,硬件可以通信的情况下,某一时刻的全局状态,就叫做全局的快照

14.为什么需要全局快照

  • 第一,用它来做检查点,可以定期对全局状态做备份,当应用程序故障时,就可以拿来恢复:
  • 第二,做死锁检测,进行快照后当前的程序继续运行,然后可以对快照进行分 析,看应用程序是不是存在死锁状态,如果是就可以进行相应的处理。

15.Flink的容错机制

  • Exacty once是指每条 event 会且只会对 state 产生一次影响,这里的“一次”并非端到端的严格一次,而是指在 Flink 内部只处理一次,不包括 source和 sink 的处理。
  • Atleast once,是指每条 event 会对 state 产生最少一次影响,也就是存在重复处理的可能。
  • At most once,是指每条 event 会对 state 产生最多一次影响,就是状态可能会在出错时丢失。

16.Flink是如何实现End-To-End Exactly-once的?

  • Flink通过状态和两次提交协议来保证了端到端的exactly-once语义
  • Source: 支持数据的replay,如Kafka的offset。
  • Transformation: 借助于checkpoint
  • Sink: Checkpoint + 两阶段事务提交

17.解释下两阶段提交?

  • 一旦Flink开始做checkpoint操作,就会进入pre-commit “预提交”阶段,同时JobManager的Coordinator会将Barrier注入数据流中
  • 当所有的barrier在算子中成功进行一遍传递《就是Checkpoint完成),并完成快照后,“预提交”阶
    等所有的算子完成“预提交”
  • 就会发起一个commit “提交”动作,但是任何一个“预提交” 失败都会导致回滚到最近的checkooint.

18.Flink 的 checkpoint 存在哪里?

可以是内存,文件系统,或者 RocksDB。

19.海量 key 去重

如果是海量数据的话,Set结构是不现实的,可以考虑使用布隆过滤器来去重。

20.Flink 的 checkpoint 机制对比 spark 有什么不同和优势?

  • spark streaming 的 checkpoint 仅仅是针对 driver 的故障恢复做了数据和元数据的 checkpoint。而 flink 的 checkpoint 机制要复杂了很多,它采用的是轻量级的分布式快照,实现了每个算子的快照。及流动中的数据的快照。

21.Flink CEP 编程中当状态没有到达的时候会将数据保存在哪里?

  • 在 Flink CEP 的处理逻辑中,状态没有满足的和迟到的数据,都会存储在一个 Map 数据结构中,也就是说,如果我们限定判断事件序列的时长为 5 分钟,那么内存中就会存储 5 分钟的数据。

22.Flink 程序在面对数据高峰期时如何处理?

使用大容量的 Kafka 把数据先放到消息队列里面作为数据源,再使用Flink 进行消费,不过这样会影响到一点实时性。

23.Flink 的运行必须依赖 Hadoop组件吗?

Flink可以完全独立于Hadoop,在不依赖Hadoop组件下运行。但是做为大数据的基础设施,Hadoop体系是任何大数据框架都绕不过去的。Flink可以集成众多Hadooop 组件,例如Yarn、Hbase、HDFS等等。例如。Flink可以和Yarn集成做资源调度,也可以读写HDFS,或者利用HDFS做检查点。

24.Flink 资源管理中 Task Slot 的概念

  • 在Flink架构角色中我们提到,TaskManager是实际负责执行计算的Worker, TaskManager 是一个JVM 进程,并会以独立的线程来执行一个task或多个subtask。为了控制一个 TaskManager 能接受多少个 task, Flink 提出了 Task Slot 的概念。
  • 简单的说,TaskManager会将自己节点上管理的资源分为不同的Slot: 固定大小的资源子集。这样就避免了不同Job的Task互相竞争内存资源,但是需要主要的是,Slot只会做内存的隔离。没有做CPU的隔离。

25.Flink的重启策略都有哪些?

  • 固定延迟重启策略 (Fixed Delay Restart Strategy)
  • 故障率重启策略 (Failure Rate Restart Strategy)
  • 没有重启策略(No Restart Strategy)
  • Fallback重启策略 (Fallback Restart Strategy)

26.Flink中的广播变量,使用时需要注意什么?

  • 我们知道Flink是并行的,计算过程可能不在一个 Slot 中进行,那么有一种情况即:当我们需要访问同一份数据。那么Fink中的广播变量就是为了解决这种情况。
  • 我们可以把广播变量理解为是一个公共的共享变量,我们可以把一个dataset 数据集广播出去,然后不同的task在节点上都能够获取到,这个数据在每个节点上只会存在一份。

27.Flink的内存模型

28.数据倾斜问题

  • 1.keyBy之前发生数据倾斜
    如果keyBy之前就存在数据倾斜,上游算子的某些实例可能处理的数据较多,某些实例可能处理的数据较少,产生该情况可能是因为数据源的数据本身就不均匀,例如由于某些原因Kafka的topic中某些partition的数据量较大,某些partition的数据量较少。对于不存在kevBy的Flink任务也会出现该情况。
    这种情况,需要让Flink任务强制进行shuffle。使用shuffle、rebalance、rescale算子即可将数据均匀分配,从而解决数据倾斜的过
  • 2.keyBy之后无开窗聚合数据倾斜
    map端使用状态先预聚合,达到一定时间或者一定size后再同一输出 (localkeyby) 。
  • 3.keyBy后的窗口聚合操作存在数据倾斜
    因为使用了窗口,变成了有界数据的处理,窗口默认是触发时才会输出一条结果发往下游。所以可以使用两阶段聚合的方式:第一阶段聚合: key拼接随机数前缀或后缀,进步keyby、开窗、聚合
    第二阶段聚合: 去掉随机数前缀或后缀,按照原来的key及windowEnd作keyby、聚合。

29.Flink连接API

  • union 多流合并,类型一致
  • connect 两条流分别处理,类型可不一致,可共享状态
  • join 相当于innerjoin
  • coGroup 实现左外连接,第一个流没有join上,也要输出

30.Flink-On-Yarn常见的提交模式有哪些,分别有什么优缺点?

  • 1.yarn-session 式
    这种方式需要先启动集群,然后在提交作业,接着会向varn申请一块空间后,资源永远保持不变。如果资源满了,下一个就任务就无法提交,只能等到varn中其中一个作业完成后,程放了资源,那下-个作业才会正常提交,这种方式资源被限制在sesSi0n中,不能超过比较适合特定的运行环境或测试环境。
  • 2.per-job模式
    这种方式直接在yarn上提交任务运行Flink作业,这种方式的好处是一个任务会对应一个job,即每提交一个作业会根据自身的情况.向yarn中申请资源,直到作业执行完成,并不会影响下一个作业的正常运行,除非是yarn上面没有任何资源的情况下。一般生产环境是采用此方式运行。这种方式需要保证集群资源足够。

31.Flink如何处理迟到数据

  • watermark可以设置容错时间
  • window的allowedLateness方法,可以设置窗口允许外理迟到数据的时间。
  • window的sideOutoutlLateData方法,可以将迟到的数据写入侧输出流

32.Flink任务延迟高如何解决

  • 在Flink的后台任务管理中,我们可以看到Flink的那个算子和task出现了反压。最主要的手段是资源调优和算子调优。
  • 例如调大并发。
  • 增加运行任务的资源。缩短窗口时长。

33.Flink Operator Chains

为了更高效地分布式执行,Flink会尽可能地将operator的subtask链接 chain) 在一起形成task。每个task在一个线程中执行。将operatorst技成ask是非带有效的优化:它能减少线程之同的切授,减少消息的序列化/反成列化,减少少了是迟的同时提高整体的吞吐量。这就是我们所说的算子链。其实就是尽量把操作逻辑放入到同一个subtask里就是一个槽taskSlot

34.Flink什么情况下才会把Operator chain在一起形成算子链?

  • 上下游并行度一致
  • 下游数据没有其他的输入
  • 上下游节点都在同一个soltqroup中,默认是一样的,如果不是,单独指定的算子资源,会独占TaskSolt
  • 没有keyed操作
  • 数据发送策路是forward
  • 用户没有禁用chain

35.Flink中应用在ableAPI中的UDF有几种?

  • scalar function: 针对一条record的一个字段的操作,返回一个字段。
  • table function: 针对一条record的一个字段的操作,返回多个字段
  • aggregate function: 针对多条记录的一个字段操作,返回一条记录
  • 3
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值