hue调度shell脚本,shell脚本操作hive表,shell脚本里用spark-submit 调用java程序 [生产环境使用]

executeAllConvert.sh ,hue调用此shell文件,这个文件是调用的入口文件

#!/bin/sh -l

dir=$(cd "$(dirname "$0")";pwd)
source ./env.conf

spark-submit --keytab /var/lib/hadoop-hdfs/hdfs.keytab --principal hdfs/hdfs@KIUKIANG.COM --packages com.alibaba:fastjson:1.2.46,org.postgresql:postgresql:42.1.1 --class cn.jiujiang.service.ApplicationMain ./codeConvert-etl-1.0-SNAPSHOT.jar

./exeSql.sh od_dealer_convert_1.sql
./exeSql.sh od_dealer_convert_2.sql

if [ $? -ne 0 ];then
    exit 1
fi

exeSql.sh 文件的内容

#!/bin/sh -l

dir=$(cd "$(dirname "$0")";pwd)
source ./env.conf

#RESULT_SQL=`cat ${HOME}/qc_analysis/hive/ads/compute/$1`

#echo ${RESULT_SQL}
$HIVE -f ./$1

# 这4行必填
if [ $? -ne 0 ];then
    exit 1
fi
# 这4行必填

od_dealer_convert_1.sql 文件的内容

# 这4行必填
set mapred.reduce.tasks=3;
set hive.auto.convert.join = false;
set hive.ignore.mapjoin.hint=false;
set hive.exec.parallel=true;
# 这4行必填

insert overwrite table ods.od_dealer_convert_2
select * from abc;

end.conf文件就是些公用的变量配置等信息

HOME=/data/data
HIVE="/usr/bin/hive"

重点来了,hue添加oozie的shell调用时,注意坑的地方

1 画框框的位置,要把 executeAllConvert.sh 文件里出现的文件,都要添加进来,这里有5个文件, env.conf,codeConvert-etl-1.0-SNAPSHOT.jar,exeSql.sh,od_dealer_convert_1.sql,od_dealer_convert_2.sql
2 上述文件sql和shell中,标明的注释的几个必填项,必须要写

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值