flink提交参数详细说明

一、flink run参数
    flink run命令执行模板:flink run [option]
        -c,–class : 需要指定的main方法的类
        -C,–classpath : 向每个用户代码添加url,他是通过UrlClassLoader加载。url需要指定文件的schema如(file://)
        -d,–detached : 在后台运行
        -p,–parallelism : job需要指定env的并行度,这个一般都需要设置。
        -q,–sysoutLogging : 禁止logging输出作为标准输出。
        -s,–fromSavepoint : 基于savepoint保存下来的路径,进行恢复。
        -sae,–shutdownOnAttachedExit : 如果是前台的方式提交,当客户端中断,集群执行的job任务也会shutdown。

二、flink run -m yarn-cluster参数
    -m,–jobmanager : yarn-cluster集群
    -yd,–yarndetached : 后台
    -yjm,–yarnjobManager : jobmanager的内存
    -ytm,–yarntaskManager : taskmanager的内存
    -yn,–yarncontainer : TaskManager的个数
    -yid,–yarnapplicationId : job依附的applicationId
    -ynm,–yarnname : application的名称
    -ys,–yarnslots : 分配的slots个数

例:flink run -m yarn-cluster -yd -yjm 1024m -ytm 1024m -ynm -ys 1

三、flink-list
    flink list:列出flink的job列表。
    flink list -r/–runing :列出正在运行的job
    flink list -s/–scheduled :列出已调度完成的job

四、flink cancel
    flink cancel [options] <job_id> : 取消正在运行的job id
    flink cancel -s/–withSavepoint <job_id> : 取消正在运行的job,并保存到相应的保存点

通过 -m 来指定要停止的 JobManager 的主机地址和端口
例: bin/flink cancel -m 127.0.0.1:8081 5e20cb6b0f357591171dfcca2eea09de

五、flink stop :仅仅针对Streaming job
    flink stop [options] <job_id>
    flink stop <job_id>:停止对应的job

通过 -m 来指定要停止的 JobManager 的主机地址和端口
例: bin/flink stop -m 127.0.0.1:8081 d67420e52bd051fae2fddbaa79e046bb

取消和停止(流作业)的区别如下:
cancel() 调用,立即调用作业算子的 cancel() 方法,以尽快取消它们。如果算子在接到 cancel() 调用后没有停止,Flink 将开始定期中断算子线程的执行,直到所有算子停止为止。
stop() 调用,是更优雅的停止正在运行流作业的方式。stop() 仅适用于 Source 实现了 StoppableFunction 接口的作业。当用户请求停止作业时,作业的所有 Source 都将接收 stop() 方法调用。直到所有 Source 正常关闭时,作业才会正常结束。这种方式,使作业正常处理完所有作业。

六、 flink modify 修改任务并行度
    flink modify <job_id> [options]
    flink modify <job_id> -p /–parallelism p : 修改job的并行度

例: flink modify -p 并行数 <job_pid>

七、flink savepoint
    flink savepoint [options] <job_id>

    eg: # 触发保存点
    flink savepoint <job_id> hdfs://xxxx/xx/x : 将flink的快照保存到hdfs目录

    使用yarn触发保存点
    flink savepoint <job_id> <target_directory> -yid <application_id>

    使用savepoint取消作业
    flink cancel -s <tar_directory> <job_id>

    从保存点恢复
    flink run -s <target_directoey> [:runArgs]

    如果复原的程序,对逻辑做了修改,比如删除了算子可以指定allowNonRestoredState参数复原。
    flink run -s <target_directory> -n/–allowNonRestoredState [:runArgs]

    savepoint 与 checkpoint 的区别
        checkpoint是增量做的,每次的时间短,数据量小,只要在程序里面启用后会自动触发,用户无需感知;savepoint是全量做的,时间长,数据量大,需要用户主动触发。
        checkpoint 是作业failover 的时候自动使用,不需要用户指定,savepoint 一般用于程序版本更新、bug修复、A/B Test 等场景,需要用户指定。

Flink是一款流处理框架,基于Java开发,采用分布式数据流和批处理模型,可以处理大量实时数据和海量数据。在使用Flink运行任务的时候,需要使用flink run命令来启动Flink集群并提交作业。flink run命令可以接受多个参数来控制Flink运行时的各项参数。以下是flink run启动参数说明: 1. -c, --class:指定要执行的类名。该参数用于跑特定的类的main方法,用于执行离线任务的特定类。 2. -p, --parallelism:指定任务的并行度。该参数用于指定每个算子的并行度,即每个算子的实例数。 3. -m, --jobmanager:指定JobManager的地址。该参数用于指定运行JobManager的主机名和端口号。 4. -t, --target:指定任务的执行目标,可选local或remote。local意味着任务将在本地执行,而remote意味着任务将在远程集群或者会话中执行。 5. -yn, --yarnname:指定在YARN上运行jars的应用程序名称。当我们在YARN中运行flink时,需要使用该参数指定应用程序的名称。 6. -s, --sysout:重定向标准输出流。这个参数可以将标准输出流重定向到本地文件系统中的一个文件。 7. -d, --detached:以后台模式启动任务,启动任务后会脱离当前终端会话。这个参数可以让Flink在后台运行,任务完成后可以退出终端操作,而不会停止Flink运行。 总之,flink run启动参数可以控制Flink任务的执行方式、性能和各项参数调优,更好地满足任务需求和用户要求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值