将很多段逻辑sql放在一个hive文件执行 终止提交的任务做法

 

 

 

背景: hive工作中,将很多etl 脚本写在一起,然后整体提交,提交后突然后悔想取消

 

 

eg:

 

qyjssum.sh:

 

sudo -u hdfs hive -e "

    use ste_qyjs;

 

    清洗逻辑1.....

 

 

    清洗逻辑2....

 

    清洗逻辑3......

 

"

 

调用写法:

nohup /cloud/qyjs_sum_generate.sh > /cloud/qyjs_sum_generate.log  2>&1 &

tail -f  /cloud/qyjs_sum_generate.log 

 

一般想杀死用:

 

ps  -ef | grep qyjs_sum_generate.sh

此时会出现三个进程描述信息和ID,

第一个是 grep这条语句的进程

第二个是上面 nohup调用grep qyjs_sum_generate.sh 的进程

第三个是这个任务提交成mr任务的进程

一般直 kill -9 第二个 第三个进程即可,

 

但是昨天我用这种方式杀不死,现象是:

   清洗逻辑1.....  

 

 

    清洗逻辑2....

 

    清洗逻辑3......

 

杀死了这个进程后,  清洗逻辑2的进程提交上去,然后杀死清洗逻辑2的 清洗逻辑3的有提交上去,

具体原因我不知道,但是最后的做法就是:

 

hadoop job -list 查看产生的 hadoop job

然后用 hadoop job -kill jobid方式 出现一个杀死一个 这种方式实现完全杀死整个sh里面的任务。

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值