flink常用参数说明

一、flink run参数:
flink run命令执行模板:flink run [option]

-c,–class : 需要指定的main方法的类

-C,–classpath : 向每个用户代码添加url,他是通过UrlClassLoader加载。url需要指定文件的schema如(file://)

-d,–detached : 在后台运行

-p,–parallelism : job需要指定env的并行度,这个一般都需要设置。

-q,–sysoutLogging : 禁止logging输出作为标准输出。

-s,–fromSavepoint : 基于savepoint保存下来的路径,进行恢复。

-sae,–shutdownOnAttachedExit : 如果是前台的方式提交,当客户端中断,集群执行的job任务也会shutdown。

二、flink run -m yarn-cluster参数
-m,–jobmanager : yarn-cluster集群
-yd,–yarndetached : 后台
-yjm,–yarnjobManager : jobmanager的内存
-ytm,–yarntaskManager : taskmanager的内存
-yn,–yarncontainer : TaskManager的个数
-yid,–yarnapplicationId : job依附的applicationId
-ynm,–yarnname : application的名称
-ys,–yarnslots : 分配的slots个数

例:flink run -m yarn-cluster -yd -yjm 1024m -ytm 1024m -ynm -ys 1

三、flink-list
flink list:列出flink的job列表。

flink list -r/–runing :列出正在运行的job

flink list -s/–scheduled :列出已调度完成的job

四、flink cancel
flink cancel [options] <job_id> : 取消正在运行的job id

flink cancel -s/–withSavepoint <job_id> : 取消正在运行的job,并保存到相应的保存点

通过 -m 来指定要停止的 JobManager 的主机地址和端口

例: bin/flink cancel -m 127.0.0.1:8081 5e20cb6b0f357591171dfcca2eea09de

五、flink stop :仅仅针对Streaming job
flink stop [options] <job_id>

flink stop <job_id>:停止对应的job

通过 -m 来指定要停止的 JobManager 的主机地址和端口

例: bin/flink stop -m 127.0.0.1:8081 d67420e52bd051fae2fddbaa79e046bb

取消和停止(流作业)的区别如下:

cancel() 调用,立即调用作业算子的 cancel() 方法,以尽快取消它们。如果算子在接到 cancel() 调用后没有停止,Flink 将开始定期中断算子线程的执行,直到所有算子停止为止。
stop() 调用,是更优雅的停止正在运行流作业的方式。stop() 仅适用于 Source 实现了 StoppableFunction 接口的作业。当用户请求停止作业时,作业的所有 Source 都将接收 stop() 方法调用。直到所有 Source 正常关闭时,作业才会正常结束。这种方式,使作业正常处理完所有作业。
六、 flink modify 修改任务并行度
flink modify <job_id> [options]

flink modify <job_id> -p /–parallelism p : 修改job的并行度

例: flink modify -p 并行数 <job_pid>

七、flink savepoint
flink savepoint [options] <job_id>

eg: # 触发保存点

flink savepoint <job_id> hdfs://xxxx/xx/x : 将flink的快照保存到hdfs目录

使用yarn触发保存点

flink savepoint <job_id> <target_directory> -yid <application_id>

使用savepoint取消作业

flink cancel -s <tar_directory> <job_id>

从保存点恢复

flink run -s <target_directoey> [:runArgs]

如果复原的程序,对逻辑做了修改,比如删除了算子可以指定allowNonRestoredState参数复原。

flink run -s <target_directory> -n/–allowNonRestoredState [:runArgs]

savepoint 与 checkpoint 的区别

checkpoint是增量做的,每次的时间短,数据量小,只要在程序里面启用后会自动触发,用户无需感知;savepoint是全量做的,时间长,数据量大,需要用户主动触发。

checkpoint 是作业failover 的时候自动使用,不需要用户指定,savepoint 一般用于程序版本更新、bug修复、A/B Test 等场景,需要用户指定。

在 Apache Flink 中,DataStream API 中的 aggregate 方法用于对流数据进行聚合操作。该方法的参数说明如下: ``` public <T, A, R> SingleOutputStreamOperator<R> aggregate(AggregateFunction<T, A, R> function, WindowAssigner<? super T, W> windowAssigner, Trigger<? super T, ? super W> trigger, Evictor<? super T, ? super W> evictor, AllowedLateness allowedLateness, OutputTag lateDataOutputTag) ``` 其中各参数的含义如下: - function:AggregateFunction 类型,表示聚合函数,用于定义聚合逻辑。 - windowAssigner:WindowAssigner 类型,表示窗口分配器,用于定义数据元素如何分配到不同的窗口中。 - trigger:Trigger 类型,表示触发器,用于定义窗口如何触发计算。 - evictor:Evictor 类型,表示清除器,用于定义窗口中哪些元素应该被清除。 - allowedLateness:AllowedLateness 类型,表示允许延迟的时间,用于定义窗口计算的最大允许延迟时间。 - lateDataOutputTag:OutputTag 类型,表示迟到的数据标记,用于标记迟到的数据。 其中前四个参数为必选参数,后两个参数为可选参数。 聚合函数 AggregateFunction 是必选参数,该函数用于定义聚合逻辑,需要实现 AggregateFunction 接口,并重写该接口中的四个方法:createAccumulator()、add()、getResult() 和 merge()。 窗口分配器 WindowAssigner、触发器 Trigger 和清除器 Evictor 也是必选参数,用于定义窗口如何分配、触发和清除。Flink 提供了多种窗口分配器、触发器和清除器的实现,也可以根据需求自定义实现。 允许延迟的时间 AllowedLateness 和迟到的数据标记 OutputTag 均为可选参数,用于定义窗口计算的最大允许延迟时间和标记迟到的数据。如果不指定这两个参数,则 Flink 默认不允许延迟,迟到的数据会被丢弃。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值