flink on yarn任务启停脚本(实现一键读取ck启动,保存ck停止)

img

1.问题描述

flink同步任务,长期任务过多,某个任务停止保存checkpoint或者savepoint后,修改代码,使用命令行读取检查点重新启动需要人工去hdfs上找寻检查点保存位置。任务过多管理起来很不方便。
鉴于此,使用脚本编写了一套启停代码,可以自动的停止flink任务并保存savepoint,读取检查点启动,也可以实现批量的启停
废话不多说,脚本如下

2.问题解决

vim flink_task_start_and_stop.sh
#!/bin/bash
# HDFS配置
HDFS_URI=hdfs://mycluster
# 读取最新的checkpoint文件夹名
function get_latest_checkpoint_dir {
  # 获取所有的checkpoint文件夹名
  dirs=($(hdfs dfs -ls $CHECKPOINT_DIR | sort -r -k6,7  | awk '{print $NF}'))

  # 遍历文件夹名
  for dir in "${dirs[@]}"; do
    # 获取最新的以chk开头的savepoint文件夹名
    chk_dir=$(hdfs dfs -ls $dir | awk '{print $NF}' | grep -w '.*/savepoint-.*' | sort -r | head -n 1)
    if [ ! -z "$chk_dir" ]; then
      echo "$chk_dir"
      return
    fi
   # 获取最新的以chk开头的checkpoint文件夹名
    chk_dir=$(hdfs dfs -ls $dir | awk '{print $NF}' | grep -w '.*/chk-.*' | sort -r | head -n 1)
    if [ ! -z "$chk_dir" ]; then
      echo "$chk_dir"
      return
    fi
  done
}

# 启动命令
function flink_start {
  # 获取最新的savepoint或者checkpoint文件夹名
  savepoint_dir=$(get_latest_checkpoint_dir)
  if [ ! -z "$savepoint_dir" ]; then
    # 使用最新的savepoint启动
    command=" $FLINK_HOME/bin/flink run -s $HDFS_URI$savepoint_dir $START_COMMAND "
  echo "Starting job with command: $command"
  $command 
  else
    # 没有可用的savepoint,则直接启动
    echo "启动失败..."
  fi
}


# 停止命令
function flink_stop {
  application_id=$(yarn application -list | grep $JOB_NAME | awk '{print $1}')
  SAVEPOINT_DIR1=$HDFS_URI$CHECKPOINT_DIR
  #查看yarn中的job
  raw=$(curl -k -i --negotiate -u : 'http://hadoop1:8088/proxy/'$application_id'/jobs')
  st_line=$(echo "$raw" | tail -1)
 flink_id=$(echo $st_line | jq -r '.jobs[].id')

#echo  /bin/flink1  cancel -s $SAVEPOINT_DIR $flink_id -yid $application_id 
echo flink1111 cancel -s $SAVEPOINT_DIR1 $flink_id -yid $application_id
 SAVEPOINT_PATH=$($FLINK_HOME/bin/flink cancel -s $SAVEPOINT_DIR1 $flink_id -yid $application_id)
        if [ -z "$SAVEPOINT_PATH" ]; then           
            echo "Failed to save savepoint"
            #exit 1
        else
            echo "Savepoint saved to $SAVEPOINT_PATH"
        fi
}



function flink_all {
case $1 in
  "task_name1")
          FLINK_HOME=flink_address
          JOB_NAME=job_name
          CHECKPOINT_DIR=HDFS_ck_address
         START_COMMAND="
          -t yarn-per-job \
          -Dyarn.application.queue=queue_name \
          -p 1 \
          -d \
          -Dyarn.application.name=job_name \
          -Dyarn.application-attempts=3 \
          -Djobmanager.memory.process.size=1024mb \
          -Dtaskmanager.memory.process.size=2048mb \
          -Dtaskmanager.numberOfTaskSlots=1 \
          -Dtaskmanager.memory.managed.size=256mb \
          -Dtaskmanager.memory.task.heap.size=917mb \
          -c class_name \
          jar_address \
         "

          case "$2" in
          start)
            flink_start
            ;;
          stop)
            flink_stop
            ;;
           *)
            echo "Usage: {start|stop}"
            exit 1
            ;;
        esac
    ;;
"task_name2")
          FLINK_HOME=flink_address
          JOB_NAME=job_name
          CHECKPOINT_DIR=HDFS_ck_address
         START_COMMAND="
          -t yarn-per-job \
          -Dyarn.application.queue=queue_name \
          -p 1 \
          -d \
          -Dyarn.application.name=job_name \
          -Dyarn.application-attempts=3 \
          -Djobmanager.memory.process.size=1024mb \
          -Dtaskmanager.memory.process.size=2048mb \
          -Dtaskmanager.numberOfTaskSlots=1 \
          -Dtaskmanager.memory.managed.size=256mb \
          -Dtaskmanager.memory.task.heap.size=917mb \
          -c class_name \
          jar_address \
         "

          case "$2" in
          start)
            flink_start
            ;;
          stop)
            flink_stop
            ;;
           *)
            echo "Usage: {start|stop}"
            exit 1
            ;;
        esac
    ;;

esac

}


case $1 in
#批量启停
    "all")
      for i in task_name1 task_name2
      do 
      echo ================== $i $2日期为 $do_date ==================
      flink_all $i $2
      done 
       ;;
    *)
      flink_all $1 $2
      ;;
esac

3.脚本使用

#启动某个flink任务
./flink_task_start_and_stop.sh task_name2 start
#停止某个flink任务并保存savepoint
./flink_task_start_and_stop.sh task_name2 stop
#启停所有flink任务
./flink_task_start_and_stop.sh all start
./flink_task_start_and_stop.sh all stop
  • 14
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
通过命令操作Flink on Yarn停止任务有多种方式,具体取决于你使用的是哪种模式。在application模式下,可以使用以下命令停止任务: ``` ./bin/flink cancel -t yarn-application -Dyarn.application.id=application_XXXX_YY <jobId> ``` 其中,`application_XXXX_YY`是Yarn应用程序的ID,`<jobId>`是Flink任务的ID。这个命令将取消指定的任务,并停止整个集群。 在per-job模式下,可以使用以下命令停止任务: ``` ./bin/flink cancel -t yarn-per-job -Dyarn.application.id=application_XXXX_YY <jobId> ``` 同样,`application_XXXX_YY`是Yarn应用程序的ID,`<jobId>`是Flink任务的ID。这个命令将取消指定的任务。 如果你使用的是session模式,可以使用以下命令停止任务: ``` ./bin/flink cancel -t yarn-session -Dyarn.application.id=application_XXXX_YY <jobId> ``` 同样,`application_XXXX_YY`是Yarn应用程序的ID,`<jobId>`是Flink任务的ID。这个命令将取消指定的任务。 总结起来,通过命令操作Flink on Yarn停止任务的方式取决于你使用的是application模式、per-job模式还是session模式。你可以根据具体的模式选择相应的命令停止任务。 #### 引用[.reference_title] - *1* [【FLinkFlink 任务 如何优雅的停止](https://blog.csdn.net/qq_21383435/article/details/124719051)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Flink On Yarn提交方式](https://blog.csdn.net/u012667450/article/details/124459760)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值