因统计需求,要指将Spark SQL计算好的结果,从Hive导出到Mysql数据库,于是写了个批量导的脚本。
运行参数: 开始时间 结束时间
注意点:
1. 在shell中,sqoop语句的每一行末尾不能有多余的空格,否则执行时报错!
2. shell中的if条件判断,只能是数字和才能比较大小,需要将时间转成时间戳!
代码如下:
#!/bin/bash
source /etc/profile
echo ................................Sqoop export data from:$1 to:$2
endtime=`date -d "$2" +%s`
for((i=0;;i++))
do
day=$(date "+%Y-%m-%d" -d "$1 $i day")
time=`date -d "$day" +%s`
if [ ${time} -gt $endtime ]
then
break
else
sqoop export --connect jdbc:mysql://127.0.0.1:3306/brsface_res?characterEncoding=utf8 \
--username root \
--password 123456 \
--columns 'camera_id,total,create_time' \
--export-dir hdfs://127.0.0.1:9000/opt/tools/hive/warehouse/brsface.db/metric_day_passinfo_t/dt=${day} \
--table metric_day_passinfo_t \
--input-fields-terminated-by '\001' \
-m 1
echo ................................Sqoop export data:${day} ...
fi
done